OpenAI đã chứng kiến một số nỗ lực sử dụng mô hình AI của họ để tạo nội dung giả mạo, bao gồm các bài viết dài và bình luận trên mạng xã hội, nhằm mục đích tác động đến các cuộc bầu cử, tổ chức nghiên cứu vốn tạo ra ChatGPT cho biết trong một báo cáo hôm 9/10.
Công ty khởi nghiệp này nói rằng tội phạm mạng ngày càng sử dụng nhiều công cụ AI, bao gồm ChatGPT, để hỗ trợ các hoạt động độc hại của chúng như tạo ra và gỡ lỗi phần mềm độc hại, cũng như tạo nội dung giả mạo cho các trang web và nền tảng mạng xã hội.
Công ty cho biết cho đến thời điểm này trong năm nay, OpenAI đã vô hiệu hóa hơn 20 nỗ lực như vậy, bao gồm một tập hợp các tài khoản ChatGPT vào tháng 8 được sử dụng để tạo ra các bài viết về các chủ đề bao gồm cuộc bầu cử Hoa Kỳ.
Công ty cũng đã chặn một số tài khoản từ Rwanda vào tháng 7, vốn được sử dụng để tạo bình luận về cuộc bầu cử ở quốc gia đó, do đã được đăng trên trang mạng xã hội X.
OpenAI cho biết thêm rằng không có hoạt động nào trong số các hoạt động tìm cách tác động đến các cuộc bầu cử toàn cầu thu hút được sự tham gia lan truyền hoặc lượng khán giả bền vững.
Ngày càng có nhiều lo ngại về việc sử dụng các công cụ AI và các trang mạng xã hội để tạo ra và phát tán nội dung giả mạo liên quan đến bầu cử, đặc biệt là khi Hoa Kỳ đang chuẩn bị cho cuộc bầu cử tổng thống.
Theo Bộ An ninh Nội địa Mỹ, Hoa Kỳ nhận thấy mối đe dọa ngày càng tăng từ Nga, Iran và Trung Quốc khi những nước này đang tìm cách tác động đến cuộc bầu cử ngày 5/11, bao gồm cả việc sử dụng AI để phát tán thông tin giả mạo hoặc gây chia rẽ.
OpenAI đã củng cố vị thế là một trong những công ty tư nhân có giá trị lớn nhất thế giới vào tuần trước sau vòng gọi vốn 6,6 tỷ đô la.
ChatGPT có 250 triệu người dùng hàng tuần kể từ khi ra mắt vào tháng 11/2022.
Theo VOA
Comments powered by CComment