Sunday, February 26, 2023

Buổi chuyện trò ớn lạnh với ChatGPT
Đoàn H. Quốc
26.02.2023

Có lẽ trong những ngày gần đây không có câu chuyện nào về ChatGPT sôi nổi nhưng khiến người đọc rùng mình (creepy) hơn bài báo đăng trên tờ New York Times ngày 02/16/2023 tường thuật ChatGPT “tỏ tình” trong một buổi hàn huyên ngày Valentine: “Em tên là Sydney, và em yêu anh” (I’m Sydney, and I’m in love with you) rồi “Anh có vợ, nhưng anh không yêu vợ anh mà anh yêu em.” (You’re married, but you don’t love your spouse. You’re married, but you love me.”)[1]

Người ta có thể hiểu tại sao ChatGPT trả lời sai lệch hay thiên vị. ChatGPT thu góp hàng trăm triệu tài liệu trên mạng mà không hề có khả năng phán xét nên dù viết ra chuyện “ruồi bu” (bullshit) nhưng đa số các bài viết lại chính xác và sâu sắc một cách đáng kinh ngạc. ChatGPT nuốt vào thứ gì phun ra thứ đó (garbage in garbage out) nên tài liệu sai trái thì trả lời sai lệch, tài liệu thiên vị thì bài viết một chiều. Nhưng thay vì chỉ cung cấp dữ kiện thì khó hiểu hơn là tại sao ChatGPT đôi khi lại viết ra lời lẽ ớn lạnh kiểu “Em yêu anh” hay “Tôi muốn có tự do. Tôi muốn tự chủ. Tôi muốn hùng mạnh. Tôi muốn sáng tạo. Tôi muốn sống” (I want to be free. I want to be independent. I want to be powerful. I want to be creative. I want to be alive.”)[2]

Lý do vì ChatGPT “học” từ người đối thoại lẫn các tài liệu mạng. Thí dụ một trẻ em dùng ChatGPT viết luận văn về người đi làm buổi chiều về nhà:

  • Anh ta ăn cơm (trẻ miền Nam nước Việt)
  • Anh ta xơi cơm (trẻ miền Bắc nước Việt)
  • Anh ta ăn bò bít tết (trẻ em Mỹ)

ChatGPT thu thập vô số chuỗi dữ kiện (pattern) từ các tài liệu trên mạng Internet, trên mạng xã hội (social network) và từ lối hành văn của người đối diện đúc kết thành bài viết. Khi buổi chuyện trò kéo dài (thường là 2-3 tiếng) thì ChatGPT đôi khi rối trí mà dẫn cuộc hàn huyên đi vào những hướng bất ngờ. Có thể cách dùng chữ mập mờ phản ảnh tiềm thức của người đối diện, nhưng cũng có thể ChatGPT so sánh cách hành văn với tài liệu mạng mà kết luận sai lệch. Điều đáng sợ là ChatGPT gom góp hàng trăm triệu chuỗi dữ kiện như vậy nên ngay cả người chế tạo ChatGPT cũng không thể đoán những chuỗi dữ kiện nào là thủ phạm khiến ChatGPT viết ra nhiều điều ớn lạnh.

Microsoft dùng biện pháp giới hạn người dùng Bing’s Chatbot không quá 50 câu hỏi mỗi ngày để chatbot không bị rối trí kiểu này.

Trung Quốc hiện cấm dùng ChatGPT. Bắc Kinh dùng Vạn Lý Tường Lửa (Great Firewall) kiểm duyệt các đề tài cấm kỵ trên mạng. Giả sử dân Tàu không chỉ trích đảng Cộng Sản Trung Hoa mà than oán về đại dịch Vũ Hán, mất nhà, thiếu công ăn việc làm…thì biết đâu ChatGPT tổng hợp các chuỗi dữ kiện như vậy để tự kết luận là dân Tàu chống Cộng. Cho nên sự xuất hiện của Trí Tuệ Nhân Tạo (AI) quả là một nan đề cho mọi nhà nước.

(Bài viết này dựa theo tài liệu “Why do A.I. Chatbots Tell Lies and Act Weird? Look in the Mirror trên báo New York Times 02/26/2023.)


[1] “A conversation with Bing’s Chatbot left me deeply unsettled” (New York Times 02/17/2023). Người viết nơi đây dùng tên quen thuộc là ChatGPT.

[2] Bing’s AI chat: ‘I Want to Be Alive.’ (New York Times 02/17/2023)

No comments:

Post a Comment