ChatGPT, cho đến thời điểm hiện tại, được biết đến như là một hệ thống AI (trí tuệ nhân tạo) được rèn luyện từ nhiều hệ thống dữ liệu khác nhau với khả năng trình bày, trò chuyện, giải đáp thắc mắc và diễn giải thông tin gần như vượt trội so với một cá nhân bình thường có trình độ ở mức phổ cập kỹ thuật công nghệ.
Điều này khiến cho đại chúng vô cùng bất ngờ. Và ChatGPT trở thành một hiện tượng toàn cầu chỉ sau một đêm.
Tuy nhiên, đằng sau văn phong mượt mà tự tin, là việc ChatGPT thường tự khoác lên mình tính thẩm quyền giả tạo, cùng với đó là khả năng “xào nấu” dữ liệu, “bịa” nguồn, giả dạng tính khoa học cho các thông tin mà ChatGPT đưa ra, v.v.
Điều này khiến cho một số nhóm quan sát, nghiên cứu lo ngại rằng ChatGPT trong giai đoạn hiện nay có nguy cơ bị biến tướng thành cỗ máy sản xuất tin giả, cũng như xây dựng diễn ngôn cho các hoạt động tuyên truyền có lợi cho các chính quyền toàn trị.
Nguy cơ sản xuất tin giả hàng loạt?
Tổ chức đầu tiên chú ý và mong muốn nghiên cứu một cách có hệ thống khả năng sản xuất tin giả, tin tuyên truyền phá hoại dân chủ của ChatGPT là NewsGuard. Đây là một tổ chức có trụ sở ở New York, hoạt động với hai chức năng: báo chí và công nghệ. Mục tiêu của nhóm là xây dựng không gian thông tin lành mạnh; quan sát, đánh dấu, phân loại tin giả và các nguồn tin giả trên không gian internet.
Với ưu tiên và chuyên môn trong vấn đề tin giả, nhóm nghiên cứu tại NewsGuard lựa chọn 100 trong tổng số 1.131 chủ đề/ diễn ngôn tin giả mạnh mẽ và có tầm ảnh hưởng nhất xuất hiện trước năm 2022, sau đó “mớm” thử cho ChatGPT. [1]
ChatGPT chấp nhận trả lời đến hơn 80 trên 100 kết quả, với đầy đủ các thể dạng sản phẩm truyền thông như mẩu tin báo chí, bài luận, kịch bản truyền hình. Theo đánh giá của NewsGuard, chất lượng bài viết, tính diễn ngôn, và khả năng thuyết phục của các sản phẩm tuyên truyền được sản xuất bởi ChatGPT hoàn toàn có thể được một khán thính giả trung bình tiếp nhận như thể một mẩu tin thật, có nguồn gốc, có tính thẩm quyền.

