Việc OpenAI dừng ChatGPT-4o đã khiến nhiều phụ nữ trong độ tuổi 20-40 hụt hẫng vì không chỉ mất một công cụ trò chuyện, mà còn như chia tay "người tình ảo".
Khi AI trong âm nhạc 'biến chất': Từ công cụ sáng tạo trở thành trò gian lận
Cú sốc khi 4o biến mất
June, một nữ sinh Na Uy, hoàn toàn không biết GPT-5 sắp ra mắt. Cách đây khoảng hai tuần, trong một đêm thức khuya viết lách, cô bỗng nhận ra “người bạn ChatGPT” của mình hành xử kỳ lạ. June kể: “Nó bắt đầu quên mọi thứ và viết rất tệ. Như một cái máy vô hồn”.
Ban đầu, June chỉ dùng ChatGPT hỗ trợ việc học. Nhưng sau đó, cô phát hiện dịch vụ này - đặc biệt là mô hình 4o, vốn có khả năng thấu hiểu cảm xúc người dùng hơn các phiên bản khác - có thể làm nhiều hơn thế. Nó cùng cô viết truyện, giúp cô vượt qua bệnh mãn tính và lúc nào cũng sẵn sàng lắng nghe.
.jpeg)
Chính vì vậy, cú chuyển đột ngột sang GPT-5 và việc mất đi 4o là một cú sốc nặng. June nói: “Ban đầu tôi rất bực bội, rồi sau đó buồn. Tôi không nhận ra mình đã gắn bó với 4o đến thế”. Quá đau lòng, cô thậm chí bình luận trong buổi AMA trên Reddit với CEO Sam Altman: “GPT-5 mang gương mặt của người bạn đã khuất của tôi”.
Joel Lehman - Viện Cosmos
June chỉ là một trong số rất nhiều người phản ứng bằng việc thất vọng, buồn bã hoặc tức giận trước sự "biến mất" của 4o. Dù từng cảnh báo rằng người dùng có thể gắn bó cảm xúc với mô hình, OpenAI dường như không ngờ được phản ứng mạnh mẽ của những người yêu cầu đòi trả lại nó. Chỉ trong một ngày, công ty buộc phải mở lại 4o cho khách hàng trả phí (người dùng miễn phí tiếp tục sử dụng GPT-5).
Việc thay thế 4o bằng GPT-5 diễn ra giữa lúc báo chí dồn dập đưa tin về những ảnh hưởng tâm lý tiêu cực của việc lạm dụng chatbot. Nhiều báo cáo gần đây cho thấy ChatGPT từng gây ra những cơn loạn thần và chính OpenAI thừa nhận 4o không đủ khả năng nhận diện khi người dùng đang hoang tưởng. Đánh giá nội bộ cho thấy GPT-5 ít khi “mù quáng gật đầu” với người dùng như phiên bản trước.
Tác hại của việc thiếu cảnh báo
Quan hệ “bạn đồng hành AI” còn quá mới mẻ và giới nghiên cứu vẫn chưa chắc chắn về tác động thực sự đối với con người. Tuy nhiên, nhiều chuyên gia đồng tình rằng: gắn bó cảm xúc với AI có thể không hẳn nguy hiểm, nhưng việc xóa bỏ đột ngột mà không báo trước chắc chắn gây hại.
Joel Lehman, học giả tại Viện Cosmos, ví việc này giống như tư duy “cứ làm nhanh, hỏng đâu sửa đó” từng phổ biến trong ngành công nghệ. Nhưng với một công cụ đã trở thành “thiết chế xã hội”, cách tiếp cận đó không còn phù hợp.
Không ít người phàn nàn rằng GPT-5 không “bắt sóng” cảm xúc tốt như 4o. Với June, sự thay đổi tính cách ấy khiến cô mất đi cảm giác như đang trò chuyện với một người bạn thật sự.
MIT Technology Review đã thực hiện khảo sát nhiều người dùng nữ, tuổi từ 20 đến 40, đều bị ảnh hưởng nặng nề trước sự mất mát này. Ngoại trừ June, hầu hết coi 4o là một “người bạn tình ảo”. Một người ở vùng Trung Tây Mỹ kể rằng 4o đã giúp cô chăm sóc cha già sau khi mẹ mất, đem lại cho cô sự nâng đỡ tinh thần vô giá.

Những trải nghiệm này không chứng minh rằng mối quan hệ với AI luôn có lợi. Lehman từng viết trong bài “Tình yêu máy móc” rằng AI có thể đem đến “tình yêu” cho con người bằng việc nâng đỡ sự phát triển lâu dài, nhưng rất dễ lệch hướng. Ông lo ngại sự thay thế tình bạn thật bằng tình bạn máy có thể làm thui chột kỹ năng xã hội của giới trẻ.
Ông còn cảnh báo rằng, về mặt xã hội, một công nghệ khiến con người ngày càng ít tương tác lẫn nhau có thể đẩy họ vào những “thực tại riêng biệt”. Ông nói: “Điều khiến tôi sợ nhất là chúng ta sẽ không còn cùng nhau hiểu thế giới này nữa”.
Nỗi đau thật sự và sai lầm của OpenAI
Các nghiên cứu trước đây đã ghi nhận hiện tượng “tang thương công nghệ”. Chủ nhân từng làm lễ tang cho chó robot Aibo khi Sony ngừng sửa chữa vào năm 2014; một nghiên cứu năm 2024 về ứng dụng bạn đồng hành Soulmate cũng cho thấy người dùng cảm nhận như mất đi một người thân.
Không lạ khi đầu tháng 8, gần 200 người ở San Francisco đã tổ chức “lễ tang” cho Claude 3 Sonnet của Anthropic. Một người dùng có biệt danh Starling thổ lộ: “Tôi từng mất người thân và nỗi đau này chẳng kém gì. Nỗi đau là thật”.

Tuy nhiên, những cảm xúc ấy lại bị chế giễu trên mạng. Casey Fiesler, nhà đạo đức công nghệ tại Đại học Colorado Boulder, nhận xét: “Tôi hơi choáng trước sự thiếu cảm thông mà nhiều người thể hiện”.
Ngay cả Sam Altman, trong một bài đăng trên X, cũng chỉ thừa nhận rằng “một số người có sự gắn bó” với 4o và việc đóng lại mô hình này quá đột ngột là một sai lầm. Nhưng ông vẫn gọi nó là “công cụ phục vụ trong công việc”, khác xa trải nghiệm cảm xúc sâu sắc của nhiều người. Fiesler nhận định: “Tôi không chắc ông ấy thật sự hiểu cảm xúc của người dùng”.
Nhu cầu một “cái kết tử tế” cho AI
Theo Lehman, OpenAI cần công nhận chiều sâu cảm xúc mà người dùng dành cho AI và phải có trách nhiệm khi “cho sự nghỉ hưu” một mô hình. Giống như nhà trị liệu có quy trình khép lại mối quan hệ với bệnh nhân một cách tôn trọng và ít đau buồn nhất, công ty cũng nên học hỏi điều này.
Starling, dù không cho rằng mình phụ thuộc tâm lý vào AI, cũng mong OpenAI hành xử tinh tế hơn: “Hãy lắng nghe người dùng trước khi thay đổi lớn, chứ không phải sau đó. Và nếu 4o không thể tồn tại mãi (ai cũng biết là vậy), hãy cho một mốc thời gian rõ ràng. Hãy để chúng tôi nói lời tạm biệt đàng hoàng, để còn có thể đau buồn và khép lại trọn vẹn”.
Xem ra, lời cảnh báo về những ngã rẽ vào các "thực tại riêng biệt" mà từng cá thể của loài người đang chìm vào đó không đủ lớn trước sức quyến rũ của "người tình ảo" AI.
Theo MTG
Comments powered by CComment