Theo nghiên cứu gần đây, bao gồm cả bài báo này của các nhà khoa học tại Đại học Tennessee và Học viện Bách khoa Rensselaer, chúng ta sẽ không chỉ cần các thuật toán thông minh để sửa bài diễn thuyết bị hỏng của chúng ta.
Vấn đề rất đơn giản: AI không thể làm bất cứ điều gì mà một người không thể làm. Chắc chắn, nó có thể làm nhiều việc nhanh hơn và hiệu quả hơn con người - như đếm đến một triệu - nhưng về cốt lõi, trí tuệ nhân tạo chỉ mở rộng quy mô những thứ mà con người đã có thể làm. Và mọi người thực sự tệ trong việc xác định tin tức giả mạo.
Theo các nhà nghiên cứu đã đề cập ở trên, vấn đề nằm ở cái gọi là " sự thiên vị xác nhận ". Về cơ bản, khi một người nghĩ rằng họ đã biết điều gì đó thì họ ít có khả năng bị ảnh hưởng bởi thẻ "tin tức giả" hoặc mô tả "nguồn đáng ngờ".
Điều này làm cho việc thiết kế, phát triển và đào tạo một hệ thống AI để phát hiện tin tức giả trở nên vô cùng khó khăn.
Mặc dù hầu hết chúng ta có thể nghĩ rằng chúng ta có thể phát hiện ra tin tức giả khi chúng ta nhìn thấy nó, nhưng sự thật là những kẻ xấu tạo ra thông tin sai lệch không làm điều đó một cách vô nghĩa: họ nói dối giỏi hơn chúng ta nói sự thật. Ít nhất là khi họ nói điều gì đó mà chúng tôi đã tin tưởng.
Các nhà khoa học nhận thấy mọi người - bao gồm cả những công nhân độc lập của Amazon Mechanical Turk - có nhiều khả năng xem một bài báo là giả mạo không chính xác nếu nó chứa thông tin trái với những gì họ tin là đúng.
Mặt khác, mọi người ít có khả năng mắc phải sai lầm tương tự khi tin tức đang được trình bày được coi là một phần của một tình huống tin tức mới lạ. Nói cách khác: khi chúng ta nghĩ rằng chúng ta biết những gì đang xảy ra, chúng ta có nhiều khả năng đồng ý với những tin tức giả phù hợp với định kiến của chúng ta.
Mặc dù các nhà nghiên cứu tiếp tục xác định một số phương pháp mà chúng ta có thể sử dụng thông tin này để tăng cường khả năng thông báo cho mọi người khi họ được đưa ra tin tức giả mạo, nhưng ý chính của nó là độ chính xác không phải là vấn đề. Ngay cả khi AI làm đúng, chúng ta vẫn ít có khả năng tin một bài báo thực sự khi sự thật không phù hợp với thành kiến cá nhân của chúng ta.
Điều này không có gì đáng ngạc nhiên. Tại sao ai đó nên tin tưởng một cỗ máy được chế tạo bởi công nghệ lớn thay vì lời của một nhà báo con người? Nếu bạn đang nghĩ: bởi vì máy móc không nói dối thì bạn đã hoàn toàn sai lầm.
Thông thường, khi một hệ thống AI được xây dựng để xác định tin tức giả, nó phải được đào tạo dựa trên dữ liệu đã có từ trước . Để dạy một cỗ máy nhận biết và gắn cờ tin tức giả trong tự nhiên, chúng ta phải cung cấp cho nó hỗn hợp các bài báo thật và giả để nó có thể học cách phát hiện đâu là tin. Và các bộ dữ liệu được sử dụng để đào tạo AI thường được gắn nhãn bằng tay, bởi con người.
Thông thường, điều này có nghĩa là các nhiệm vụ gắn nhãn tìm nguồn cung ứng cộng đồng đối với trang phục lao động giá rẻ của bên thứ ba, chẳng hạn như Mechanical Turk của Amazon hoặc bất kỳ cửa hàng dữ liệu nào chuyên về bộ dữ liệu, không phải tin tức. Những người quyết định xem một bài báo nhất định có phải là giả hay không có thể có hoặc không có bất kỳ kinh nghiệm hoặc chuyên môn thực tế nào về báo chí và các thủ thuật mà những kẻ xấu có thể sử dụng để tạo ra những tin tức giả hấp dẫn, khó phát hiện.
Và, chừng nào con người còn thành kiến, chúng ta sẽ tiếp tục chứng kiến tin tức giả phát triển mạnh. Thành kiến xác nhận không chỉ khiến chúng ta khó phân biệt sự thật mà chúng ta không đồng ý với những lời nói dối mà chúng ta làm, mà còn việc duy trì và chấp nhận những lời nói dối và thông tin sai lệch hoàn toàn từ những người nổi tiếng, thành viên gia đình, đồng nghiệp, sếp và các cơ quan chính trị cao nhất. gây khó khăn cho việc thuyết phục mọi người.
Mặc dù các hệ thống AI chắc chắn có thể giúp xác định các tuyên bố sai lầm nghiêm trọng, đặc biệt là khi được đưa ra bởi các hãng tin tức thường xuyên đăng tin giả, thực tế vẫn là việc một bài báo có đúng hay không thực sự không phải là vấn đề đối với hầu hết mọi người.
Lấy ví dụ, mạng cáp được xem nhiều nhất trên truyền hình: Fox News. Mặc dù thực tế là các luật sư của Fox News đã nhiều lần tuyên bố rằng nhiều chương trình - bao gồm cả chương trình có lượt xem cao thứ hai trên mạng của hãng, do Tucker Carlson tổ chức - thực sự là tin giả .
Theo phán quyết trong vụ kiện bôi nhọ Carlson, Thẩm phán quận Hoa Kỳ Mary Kay Vyskocil - một người được Trump bổ nhiệm - đã ra phán quyết ủng hộ Carlson và Fox sau khi nhận thấy rằng những người hợp lý sẽ không coi những lời nói hàng ngày của người dẫn chương trình là trung thực:
Khi đó “'giọng nam cao chung' 'của chương trình sẽ thông báo cho người xem rằng [Carlson] không' nêu sự thật thực tế 'về các chủ đề anh ấy thảo luận và thay vào đó đang tham gia vào' cường điệu 'và' bình luận không theo nghĩa đen. ' … Fox lập luận một cách thuyết phục, rằng với danh tiếng của ông Carlson, bất kỳ người xem hợp lý nào cũng 'đến với một lượng hoài nghi thích hợp'.
Và đó là lý do tại sao, theo mô hình tin tức hiện tại, có thể không thể tạo ra một hệ thống AI có thể xác định rõ ràng liệu bất kỳ tuyên bố tin tức nào là đúng hay sai.
Nếu bản thân các hãng tin tức, công chúng, các quan chức được bầu chọn, công nghệ lớn và những người được gọi là chuyên gia không thể quyết định liệu một bài báo đưa ra là đúng hay sai mà không có thành kiến, thì không có cách nào chúng ta có thể tin tưởng một hệ thống AI làm như vậy . Chừng nào sự thật vẫn còn mang tính chủ quan như chính trị của người đọc nhất định, chúng ta sẽ ngập tràn tin tức giả mạo.
Theo Thenextweb.com