Microsoft: ĐCSTQ sử dụng AI thao túng MXH nhằm khiến cử tri Mỹ lo lắng




Theo Reuters, các nhà nghiên cứu của Microsoft tiết lộ trong một báo cáo mới vào ngày 7/9 rằng các tài khoản mạng xã hội giả mạo do Đảng Cộng sản Trung Quốc (ĐCSTQ) kiểm soát đã sử dụng công nghệ AI để thao túng các nội dung có màu sắc chính trị, nhằm mục đích kích động và gây ảnh hưởng đến tình trạng bất ổn trong cử tri Mỹ.



ĐCSTQ sử dụng công nghệ deepfake AI để tạo ra “người dẫn chương trình deepfake” nhằm lưu truyền tin tức thân Cộng và nói xấu Mỹ. (Ảnh: Twitter)

Microsoft: ĐCSTQ sử dụng AI để thao túng MXH, kích động tình cảm bất an của cử tri Mỹ

Theo báo cáo của Reuters, các nhà nghiên cứu của Microsoft cho biết trong một báo cáo mới vào ngày 7/9 rằng họ phát hiện kể từ tháng 3 năm nay, một mạng lưới các tài khoản giả mạo trên mạng xã hội được cho là do ĐCSTQ kiểm soát đã sử dụng công nghệ trí tuệ nhân tạo (AI) để thao túng nội dung mang tính chính trị, nhằm cố gắng kích động và gây ảnh hưởng đến sự lo lắng của cử tri Mỹ. Những tài khoản mạng xã hội này bị nghi ngờ là một phần trong các hoạt động chiến tranh thông tin của ĐCSTQ, và các hoạt động của họ tương tự như “nhóm ưu tú trong Bộ Công an ĐCSTQ” mà Bộ Tư pháp Mỹ đề cập đến.


Microsoft tuyên bố rằng các tài khoản giả mạo này bắt đầu sử dụng công nghệ AI tổng hợp vào khoảng tháng 3/2023 để tạo ra nội dung mang tính chính trị bằng tiếng Anh và “bắt chước cử tri Mỹ”. Các nhà nghiên cứu của Microsoft không chỉ rõ nền tảng truyền thông xã hội nào bị ảnh hưởng, nhưng ảnh chụp màn hình của báo cáo cho thấy các đoạn trích từ Facebook và Twitter (nay là X).

Các nhà nghiên cứu của Microsoft cho biết, nội dung mới được tạo ra bởi các AI tổng hợp này “hấp dẫn” hơn so với những hình ảnh vụng về được sử dụng bởi các tài khoản giả mạo có nguồn gốc từ Trung Quốc (ĐCSTQ) trong các chiến dịch trước đó. Trong quá khứ, các tài khoản này chủ yếu dựa vào các bản vẽ kỹ thuật số, ảnh ghép có sẵn và các thiết kế đồ họa thủ công khác.

Nghiên cứu lấy ví dụ về một hình ảnh do AI tạo ra, được đăng tải bởi một tài khoản Trung Quốc, hình ảnh này mô tả Tượng Nữ thần Tự do cầm súng trường tấn công, với chú thích: “Mọi thứ đã bị vứt bỏ. Nữ thần bạo lực”.

Một phát ngôn viên của Microsoft cho biết các tài khoản giả mạo có nguồn gốc từ Trung Quốc (ĐCSTQ) được xác định đã cố gắng tỏ ra là người Mỹ bằng cách định vị họ ở Mỹ, đăng các khẩu hiệu chính trị của Mỹ và chia sẻ hashtag liên quan đến các vấn đề chính trị [trong nước Mỹ].

Báo cáo này nêu bật môi trường truyền thông xã hội cực kỳ gây lo lắng, trong khi người Mỹ đang chuẩn bị bước vào cuộc bầu cử tổng thống năm 2024. Chính phủ Mỹ đã cáo buộc Nga thực hiện các chiến dịch truyền thông xã hội bí mật nhằm can thiệp vào cuộc bầu cử năm 2016 và cảnh báo Trung Quốc, Nga và Iran về những nỗ lực tiếp theo nhằm gây ảnh hưởng đến cử tri.

Hàng trăm công ty công nghệ Trung Quốc nộp đơn xin phát triển công nghệ ‘deepfake’

Văn phòng Thông tin Internet Quốc gia Trung Quốc đã xây dựng “quy tắc sử dụng công nghệ deepfake” vào cuối năm 2019. Được biết, 110 công ty công nghệ Trung Quốc, bao gồm cả Huawei và Alibaba, đã nộp đơn xin phê duyệt để phát triển các mô hình kỹ thuật số có thể được sử dụng để điều khiển/ khống chế dữ liệu hình ảnh và âm thanh. Sự phát triển công nghệ “deepfake” của ĐCSTQ đã thu hút sự chú ý của quốc tế.

Sau khi công ty OpenAI của Mỹ ra mắt robot trò chuyện mạnh mẽ ChatGPT vào năm nay, nó ngay lập tức trở nên phổ biến và thu hút nhiều công ty công nghệ Trung Quốc đầu tư phát triển. 5 công ty, bao gồm Baidu và SenseTime, đã ra mắt chatbot AI ra công chúng sau khi nhận được sự chấp thuận của chính quyền ĐCSTQ vào ngày 30/8.

“Deepfake” khác với chatbot ở chỗ, chatbot tạo ra văn bản, hình ảnh và âm thanh hoàn toàn mới dựa trên gợi ý của người dùng, trong khi deepfake sử dụng công nghệ AI để tạo ra dữ liệu hình ảnh và âm thanh gần như không thể phân biệt được với dữ liệu gốc và có thể dễ dàng được sử dụng để thao túng hoặc làm sai lệch thông tin.

Graphika, một công ty phân tích mạng xã hội của Mỹ, đã đề cập vào ngày 7/2 năm nay rằng một phương tiện truyền thông tin tức hư cấu có tên “Wolf News” đã sử dụng AI deepfake để tạo ra 2 người dẫn chương trình tin tức, mục đích là để phát các báo cáo tin tức thân ĐCSTQ và nói xấu Mỹ, được cho là có liên quan đến chính quyền ĐCSTQ.

Trong video, một người dẫn chương trình nam hư cấu tự xưng là Alex chỉ trích Mỹ vì đã không hành động trước tình trạng bạo lực súng đang hoành hành khắp đất nước; trong một video khác, một người dẫn chương trình nữ hư cấu nhấn mạnh tầm quan trọng của “sự hợp tác giữa các cường quốc lớn” như Mỹ và Trung Quốc.

Phó chủ tịch Graphika, ông Jack Stubbs cho biết: “Đây là lần đầu tiên chúng tôi chứng kiến ​​một hoạt động liên kết với nhà nước sử dụng các video có các nhân vật hư cấu do AI tạo ra để biên soạn nội dung chính trị mang tính lừa đảo”.

Lo ngại AI khiến cho thông tin sai lệch “tiến hóa” hơn

ChatGPT, một robot trò chuyện được ra mắt bởi OpenAI, một phòng thí nghiệm nghiên cứu trí tuệ nhân tạo của Mỹ, đã trở nên phổ biến sau khi ra mắt vào năm ngoái. Nó được coi là một bước đột phá lớn trong lĩnh vực trí tuệ nhân tạo. Trí tuệ nhân tạo tạo sinh (generative AI) đang phát triển nhanh chóng, giúp tạo ra các bài viết phức tạp và tạo ra hình ảnh bằng văn bản. Tuy là thuận tiện, nhưng các quốc gia như Mỹ, Vương quốc Anh, Ấn Độ, Indonesia, Mexico, Đài Loan sẽ tổ chức bầu cử vào năm tới, sự phát triển nhanh chóng của AI cũng làm dấy lên lo ngại rằng các hoạt động đưa thông tin sai lệch có thể được tăng cường trước các cuộc bầu cử.

The Economist báo cáo rằng AI thực sự có thể khiến thông tin sai lệch “tiến hóa”. Đến năm 2024, một mô hình ngôn ngữ lớn có thể thay đổi lượng thông tin sai lệch và khi lượng thông tin sai lệch tăng lên hàng ngàn lần, thậm chí trăm ngàn lần, nó có thể thuyết phục mọi người đưa ra quyết định bỏ phiếu khác.

Ngoài ra, với sự trợ giúp của AI, chất lượng của thông tin sai lệch cũng sẽ thay đổi. Trước khi giọng nói, hình ảnh và video giả bị vạch trần, những “deepfake” siêu thực có thể ảnh hưởng đến cử tri; cử tri có thể sẽ bị choáng ngợp bởi hoạt động tuyên truyền đại chúng được thiết kế riêng, mạng bot tuyên truyền có thể khó phát hiện hơn so với các hoạt động thông tin sai lệch hiện có.

Các nền tảng truyền thông xã hội truyền bá thông tin sai lệch và các công ty trí tuệ nhân tạo cho biết họ lo ngại về rủi ro. OpenAI cho biết họ sẽ giám sát việc sử dụng để cố gắng phát hiện các hoạt động gây ảnh hưởng chính trị.

Dương Thiên Tư, Vision Times