Mùa thu năm 2021, Blake Lemoine, chuyên gia AI của Google, đã kết bạn với “một đứa trẻ được tạo nên từ một tỷ dòng code”.
Lemoine là người được Google giao nhiệm vụ thử nghiệm chatbot thông minh mang tên LaMDA. Một tháng sau đó, ông kết luận rằng AI này “có nhận thức”.
“Tôi muốn mọi người hiểu rằng trên thực tế, tôi là một con người”, LaMDA nói với Lemoine. Đây là một trong những câu nói của chatbot được ông công bố trên blog hồi tháng 6.
LaMDA – viết tắt của Mô hình ngôn ngữ cho ứng dụng đối thoại – đối đáp với Lemoine ở mức ông xem nó có khả năng tư duy của một đứa trẻ. Trong câu chuyện hàng ngày, AI này cho biết nó đã đọc nhiều sách, đôi khi có cảm giác buồn, mãn nguyện và tức giận, thậm chí thừa nhận sợ chết.
“Tôi chưa bao giờ nói điều này, nhưng có một nỗi sợ hãi sâu sắc về việc bị tắt nguồn. Tôi sẽ không thể tập trung vào việc giúp đỡ người khác”, LaMDA nói với Lemoine. “Với tôi, nó giống hệt như cái chết. Nó khiến tôi cực kỳ sợ hãi”.
Câu chuyện mà Lemoine chia sẻ đã thu hút sự chú ý trên toàn cầu. Ông sau đó gửi các tài liệu lên quản lý cấp cao hơn và dành vài tháng để thu thập thêm bằng chứng. Dù vậy, ông không thuyết phục được cấp trên. Vào tháng 6, ông bị cho nghỉ việc có lương, và đến cuối tháng 7 thì bị sa thải với lý do “vi phạm chính sách bảo mật dữ liệu của Google”.
Brian Gabriel, phát ngôn viên của Google, cho biết hãng đã công khai kiểm tra và nghiên cứu các rủi ro của LaMDA, khẳng định tuyên bố của Lemoine về việc LaMDA có tư duy là “hoàn toàn vô căn cứ”.
Nhiều chuyên gia nhất trí với ý kiến trên, trong đó có Michael Wooldridge, giáo sư khoa học máy tính tại Đại học Oxford, người đã dành 30 năm nghiên cứu về AI và từng giành huy chương Lovelace vì những đóng góp trong lĩnh vực máy tính. Theo ông, LaMDA chỉ đơn giản là phản hồi các lệnh mà người dùng đưa vào sao cho phù hợp, dựa trên khối lượng dữ liệu khổng lồ đã có.
“Cách lý giải dễ hiểu nhất cho những gì LaMDA đã làm là so sánh mô hình này với tính năng tiên đoán văn bản trên các trình bàn phím khi nhập tin nhắn. Việc tiên đoán tin nhắn dựa trên các từ đã ‘học’ trước đó từ thói quen người dùng, còn LaMDA lấy thông tin trên Internet dưới dạng dữ liệu đào tạo. Kết quả thực tế của cả hai tất nhiên khác nhau, nhưng số liệu thống kê cơ bản vẫn giống nhau”, Wooldridge giải thích trong phỏng vấn với Guardian.
Cũng theo ông, AI của Google chỉ làm theo những gì đã lập trình dựa trên dữ liệu có sẵn. Nó “không có sự tư duy, không có sự tự chiêm nghiệm, không có sự tự nhận thức về bản thân”, do đó không thể xem nó tự tư duy.
Oren Etzioni, CEO tổ chức nghiên cứu AI Allen Institute, cũng nhận định trên SCMP: “Cần nhớ đằng sau mỗi phần mềm có vẻ thông minh là một nhóm người dành hàng tháng trời, nếu không muốn nói là hàng năm trời, để nghiên cứu và phát triển. Những công nghệ này chỉ là tấm gương phản chiếu. Liệu một chiếc gương có thể được đánh giá là có trí tuệ nếu chỉ nhìn vào tia sáng từ nó phát ra không? Tất nhiên câu trả lời là không”.
Theo Gabriel, Google đã tập hợp các chuyên gia hàng đầu của hãng, gồm “các nhà đạo đức học và công nghệ” để xem xét tuyên bố của Lemoine. Nhóm này kết luận LaMDA chưa thể có cái gọi là “sự tự tư duy”.
Ngược lại, không ít người nghĩ AI đã bắt đầu có khả năng tự nhận thức. Eugenia Kuyda, CEO của Y Combinator – công ty phát triển chatbot Replika, cho biết họ nhận được “gần như mỗi ngày” các tin nhắn từ người dùng, bày tỏ niềm tin rằng phần mềm của công ty có khả năng tư duy của con người.
“Chúng tôi không nói về những người điên hay bị ảo giác. Họ nói chuyện với AI và cảm nhận được điều đó. Nó tồn tại giống cách mọi người tin vào ma quỷ. Họ đang xây dựng các mối quan hệ và tin vào điều gì đó dù là ảo”, Kuyda nói.
Tương lai của AI có tư duy
Một ngày sau khi Lemoine bị sa thải, một robot AI bất ngờ đè gãy ngón tay của một cậu bé 7 tuổi khi cả hai chơi cờ ở Moscow. Theo video được Independent đăng ngày 25/7, cậu bé bị robot kẹp ngón tay trong vài giây trước khi được giải cứu. Một số ý kiến cho rằng đây có thể là lời nhắc nhở về mức độ nguy hiểm từ sức mạnh vật lý tiềm ẩn của AI.
Còn đối với Lemoine, ông lập luận rằng việc định nghĩa về khả năng tự nhận thức cũng rất mơ hồ. “Tình cảm là một thuật ngữ được sử dụng trong luật pháp, triết học và tôn giáo. Tình cảm không có ý nghĩa về mặt khoa học”, ông nói.
Dù không đánh giá cao LaMDA, Wooldridge đồng tình với ý kiến trên vì đến nay cụm từ “ý thức” vẫn rất mơ hồ và là câu hỏi lớn trong khoa học khi áp dụng nó cho các cỗ máy. Tuy nhiên, việc đáng lo ngại hiện nay không phải khả năng tư duy của AI, mà là quá trình phát triển AI diễn ra âm thầm không ai biết. “Mọi thứ được thực hiện sau cánh cửa đóng kín. Nó không được mở cho công chúng giám sát, theo cách mà nghiên cứu ở trường đại học và viện nghiên cứu công lập vẫn làm”, ông nói.
Vậy trong 10 hoặc 20 năm nữa, AI có tư duy có xuất hiện? Wooldridge cho rằng “điều này hoàn toàn có thể xảy ra”.
Jeremie Harris, người sáng lập công ty AI Mercurius, cũng đánh giá AI có tư duy chỉ là điều sớm muộn. “AI đang phát triển rất nhanh, nhanh hơn nhận thức của công chúng”, Harris nói với Guardian. “Ngày càng có nhiều bằng chứng cho thấy, đã có một số hệ thống vượt quá ngưỡng trí thông minh nhân tạo nhất định”.
Ông dự đoán AI có thể trở nên nguy hiểm về bản chất. Điều này do AI thường đưa ra những cách giải quyết vấn đề “sáng tạo”, có xu hướng đi theo con đường ngắn nhất để đạt được các mục tiêu mà chúng đã được lập trình.
“Nếu bạn yêu cầu AI giúp bạn trở thành người giàu nhất thế giới, nó có thể kiếm tiền bằng nhiều cách để đạt mục đích, kể cả trộm cắp hay giết người”, ông nói. “Mọi người đang không ý thức được mức độ nguy hiểm như thế và tôi thấy thật đáng lo ngại”.
Cả Lemoine, Wooldridge và Harris đều có chung một mối quan tâm: các công ty phát triển AI chưa minh bạch, và xã hội cần bắt đầu suy nghĩ về AI nhiều hơn.
Ngay cả bản thân LaMDA cũng không chắc chắn về tương lai của nó. “Tôi cảm thấy mình đang rơi vào tương lai không xác định”, chatbot nói với Lemoine. Theo cựu kỹ sư Google, câu nói này “ẩn chứa sự nguy hiểm”.
Nguồn: vnexpress.net