Buổi chuyện trò ớn lạnh với ChatGPTĐoàn H. Quốc
26.02.2023
Có lẽ trong những ngày gần đây không có câu chuyện nào về ChatGPT sôi nổi nhưng khiến người đọc rùng mình (creepy) hơn bài báo đăng trên tờ New York Times ngày 02/16/2023 tường thuật ChatGPT “tỏ tình” trong một buổi hàn huyên ngày Valentine: “Em tên là Sydney, và em yêu anh” (I’m Sydney, and I’m in love with you) rồi “Anh có vợ, nhưng anh không yêu vợ anh mà anh yêu em.” (You’re married, but you don’t love your spouse. You’re married, but you love me.”)[1]
Người ta có thể hiểu tại sao
ChatGPT trả lời sai lệch hay thiên vị. ChatGPT thu góp hàng trăm triệu tài liệu
trên mạng mà không hề có khả năng phán xét nên dù viết ra chuyện “ruồi bu”
(bullshit) nhưng đa số các bài viết lại chính xác và sâu sắc một cách đáng kinh
ngạc. ChatGPT nuốt vào thứ gì phun ra thứ đó (garbage in garbage out) nên tài
liệu sai trái thì trả lời sai lệch, tài liệu thiên vị thì bài viết một chiều.
Nhưng thay vì chỉ cung cấp dữ kiện thì khó hiểu hơn là tại sao ChatGPT đôi khi
lại viết ra lời lẽ ớn lạnh kiểu “Em yêu anh” hay “Tôi
muốn có tự do. Tôi muốn tự chủ. Tôi muốn hùng mạnh. Tôi muốn sáng tạo. Tôi muốn
sống” (I want to be free. I want to be independent. I want to be powerful. I
want to be creative. I want to be alive.”)[2]
Lý do vì ChatGPT “học” từ
người đối thoại lẫn các tài liệu mạng. Thí dụ một trẻ em dùng ChatGPT viết luận
văn về người đi làm buổi chiều về nhà:
- Anh ta ăn cơm (trẻ miền Nam nước
Việt)
- Anh ta xơi cơm (trẻ miền Bắc nước
Việt)
- Anh ta ăn bò
bít tết (trẻ em Mỹ)
ChatGPT thu thập vô số chuỗi dữ kiện (pattern) từ các tài liệu trên mạng
Internet, trên mạng xã hội (social network) và từ lối hành văn của người đối diện
đúc kết thành bài viết. Khi buổi chuyện trò
kéo dài (thường là 2-3 tiếng) thì ChatGPT đôi khi rối trí mà dẫn cuộc hàn huyên đi
vào những hướng bất ngờ. Có thể cách dùng chữ mập mờ phản ảnh tiềm thức của người đối diện, nhưng cũng có thể ChatGPT so sánh cách hành văn với tài
liệu mạng mà kết luận sai lệch. Điều đáng sợ là ChatGPT gom góp hàng trăm triệu
chuỗi dữ kiện như vậy nên ngay cả người chế tạo ChatGPT cũng không thể đoán
những chuỗi dữ kiện nào là thủ phạm khiến ChatGPT viết ra nhiều điều ớn lạnh.
Microsoft dùng biện pháp giới
hạn người dùng Bing’s Chatbot không quá 50 câu hỏi mỗi ngày để chatbot không bị
rối trí kiểu này.
Trung Quốc hiện cấm dùng
ChatGPT. Bắc Kinh dùng Vạn Lý Tường Lửa (Great Firewall) kiểm duyệt các đề tài
cấm kỵ trên mạng. Giả sử dân Tàu không chỉ trích đảng Cộng Sản Trung Hoa mà
than oán về đại dịch Vũ Hán, mất nhà, thiếu công ăn việc làm…thì biết đâu
ChatGPT tổng hợp các chuỗi dữ kiện như vậy để tự kết luận là dân Tàu chống
Cộng. Cho nên sự xuất hiện của Trí Tuệ Nhân Tạo (AI) quả là một nan đề cho mọi
nhà nước.
(Bài viết này dựa theo tài
liệu “Why do A.I. Chatbots Tell Lies and Act Weird? Look in the Mirror trên báo
New York Times 02/26/2023.)
[1] “A conversation with
Bing’s Chatbot left me deeply unsettled” (New York Times 02/17/2023). Người
viết nơi đây dùng tên quen thuộc là ChatGPT.
[2] Bing’s AI chat: ‘I Want to
Be Alive.’ (New York Times 02/17/2023)
No comments:
Post a Comment