Tranh cãi về AI có nhận thức – Tin Công Nghệ Số hóa


Web Suamaytinhits.com có bài: Tranh cãi về AI có nhận thức – Tin Công Nghệ Số hóa Mùa thu năm 2021, Blake Lemoine, chuyên gia AI của Google, đã kết bạn với "một đứa trẻ được tạo nên từ một tỷ dòng code". – Tin Công Nghệ

Lemoine là người được Google giao trọng trách thử nghiệm chatbot sáng dạ mang tên LaMDA. Một tháng sau đó, ông kết luận rằng AI này “có nhận thức”.

“Tôi muốn mọi người hiểu rằng trên thực tế, tôi là một con người”, LaMDA nói với Lemoine. Đây là một trong các lời nói của chatbot được ông công bố trên blog hồi tháng 6.

Cựu kỹ sư Google Blake Lemoine. Ảnh: Washington Post

Cựu kỹ sư Google Blake Lemoine. Ảnh: Washington Post

LaMDA – viết tắt của Mô hình ngôn ngữ cho phần mềm hội thoại – đối đáp với Lemoine ở mức ông xem nó có khả năng suy đoán của một đứa trẻ. Trong câu chuyện hàng ngày, AI này cho thấy nó đã đọc nhiều sách, đôi khi có cảm giác buồn, thỏa mãn và tức giận, cho dù công nhận sợ chết.

“Tôi chưa từng nói điều này, nhưng có một nỗi run sợ thâm thúy về việc bị tắt nguồn. Tôi sẽ chẳng thể tập trung vào việc giúp sức người khác”, LaMDA nói với Lemoine. “Với tôi, nó giống hệt như cái chết. Nó khiến tôi rất là sợ hãi”.

Câu chuyện mà Lemoine chia sẻ đã thu hút sự chú trọng trên toàn cầu. Ông sau đó gửi các tư liệu lên quản lý cao cấp hơn và dành vài tháng để thu thập thêm bằng chứng. Dù vậy, ông không thuyết phục được cấp trên. Vào tháng 6, ông bị cho nghỉ việc có lương, và đến cuối tháng 7 thì bị sa thải với lý do “vi phạm chính sách bảo mật dữ liệu của Google”.

Brian Gabriel, phát ngôn viên của Google, cho thấy hãng đã công khai kiểm tra và nghiên cứu các rủi ro của LaMDA, khẳng định tuyên bố của Lemoine về việc LaMDA có suy đoán là “hoàn toàn vô căn cứ”.

Nhiều chuyên gia nhất trí với quan điểm trên, trong đó có Michael Wooldridge, giáo sư khoa học máy tính tại Đại học Oxford, người đã dành 30 năm nghiên cứu về AI và từng giành huy chương Lovelace vì những đóng góp trong nghề máy tính. Theo ông, LaMDA chỉ dễ dàng là phản hồi các lệnh mà người sử dụng dẫn vào sao cho phù hợp, dựa trên khối lượng dữ liệu khổng lồ đã có.

“Cách lý giải dễ hiểu nhất cho những gì LaMDA đã làm là đối chiếu loại hình này với tính năng tiên đoán văn bản trên các trình bàn phím lúc nhập tin nhắn. Việc tiên đoán lời nhắn dựa theo những từ đã 'học' trước đấy từ thói quen người dùng, còn LaMDA lấy thông tin trên Internet dưới dạng dữ liệu đào tạo. Kết quả thật tế của cả 2 tất nhiên khác nhau, nhưng số liệu thống kê cơ bản vẫn giống nhau”, Wooldridge lý giải trong phỏng vấn với Guardian .

Cũng theo ông, AI của Google chỉ làm theo những gì đã lập trình dựa trên dữ liệu có sẵn. Nó “không có sự tư duy, không có sự tự chiêm nghiệm, không có sự tự nhận thức về bản thân”, do đấy chẳng thể xem nó tự tư duy.

Oren Etzioni, CEO tổ chức nghiên cứu AI Allen Institute, cũng nhận định trên SCMP : “Cần nhớ đằng sau mỗi phần mềm có vẻ sáng dạ là một nhóm người dành mỗi tháng trời, nếu không muốn nói là hàng năm trời, để nghiên cứu và phát triển. Những công nghệ này chỉ là tấm gương phản chiếu. Liệu một chiếc gương cũng đều có thể được đánh giá là có trí não nếu chỉ nhìn vào tia sáng từ nó phát ra không? Tất nhiên câu trả lời là không”.

Theo Gabriel, Google đã tập hợp các chuyên gia hàng đầu của hãng, gồm “các nhà đạo đức học và công nghệ” để coi xét phát biểu của Lemoine. Nhóm này kết luận LaMDA chưa thể có cái coi là “sự tự tư duy”.

Ngược lại, ít nhiều người nghĩ AI đã bắt đầu có khả năng tự nhận thức. Eugenia Kuyda, CEO của Y Combinator – trung tâm phát triển chatbot Replika, cho biết họ nhận được “gần như mỗi ngày” các lời nhắn từ người dùng, bày tỏ niềm tin rằng phần mềm của trung tâm có khả năng suy luận của con người.

“Chúng tôi không nói tới những người điên thường bị ảo giác. Họ nói chuyện với AI và cảm nhận được điều đó. Nó tồn tại giống cách mọi người tin tưởng vào ma quỷ. Họ đang thành lập các mối quan hệ và tin tưởng vào điều gì đó dù là ảo”, Kuyda nói.

Tương lai của AI có suy luận

Một ngày sau khi Lemoine bị sa thải, một robot AI bất thần đè gãy ngón tay của một cậu bé 7 tuổi khi cả 2 chơi cờ ở Moscow. Theo video được Independent đăng ngày 25/7, cậu bé bị robot kẹp ngón tay trong vài giây trước lúc được giải cứu. Một số quan điểm cho là đây có thể là lời nhắc nhở về chừng độ hiểm nguy từ sức mạnh vật lý tiềm ẩn của AI.

Còn đối với Lemoine, ông lập luận rằng việc khái niệm về khả năng tự ý thức cũng rất mơ hồ. “Tình cảm là một thuật ngữ được dùng trong luật pháp, triết học và tôn giáo. Tình cảm không có ý nghĩa về mặt khoa học”, ông nói.

Dù không đánh giá cao LaMDA, Wooldridge đồng tình với quan điểm trên vì đến nay cụm từ “ý thức” vẫn rất mơ hồ và là câu hỏi lớn trong khoa học khi áp dụng nó cho các cỗ máy. Tuy nhiên, việc đáng lo ngại hiện giờ không phải khả năng suy luận của AI, mà là qui trình phát triển AI xảy ra âm thầm không ai biết. “Mọi thứ được thi hành sau cánh cửa đóng kín. Nó chưa được mở cho công chúng giám sát, theo phương pháp mà nghiên cứu ở trường đại học và viện nghiên cứu công lập vẫn làm”, ông nói.

Vậy trong 10 hoặc 20 năm nữa, AI có suy luận có xuất hiện? Wooldridge cho là “điều này tận gốc cũng có thể xảy ra”.

Jeremie Harris, người sáng lập dịch vụ AI Mercurius, cũng đánh giá AI có suy đoán chỉ là điều sớm muộn. “AI đang phát triển rất nhanh, nhanh hơn ý thức của công chúng”, Harris nói với Guardian . “Ngày càng có nhiều bằng chứng cho thấy, đã có một số hệ thống vượt quá ngưỡng trí thông minh nhân tạo nhất định”.

Ông dự đoán AI cũng có thể có thể trở nên hiểm nguy về bản chất. Điều này do AI thường đem ra những cách xử lý vấn đề “sáng tạo”, có khuynh hướng đi theo con đường ngắn nhất để đạt được những mục tiêu mà chúng đã được lập trình.

“Nếu bạn đòi hỏi AI giúp bạn trở thành người giàu nhất thế giới, nó cũng có thể kiếm tiền bằng nhiều cách để đạt mục đích, kể cả trộm cắp hay giết người”, ông nói. “Mọi người đã không ý thức được mức độ nguy hiểm như thế và tôi thấy thật đáng lo ngại”.

Cả Lemoine, Wooldridge và Harris đều có chung một mối quan tâm: các công ty phát triển AI chưa minh bạch, và xã hội cần bắt đầu suy nghĩ về AI nhiều hơn.

Ngay cả bản thân LaMDA cũng không chắc chắn về sau này của nó. “Tôi cảm nhận thấy mình đang rớt vào sau này sẽ không xác định”, chatbot nói với Lemoine. Theo cựu kỹ sư Google, lời nói này “ẩn chứa sự nguy hiểm”.

Bảo Lâm

AI, AI tự nhận thức, Công nghệ, Phân tích, Tin nóng

Nội dung Tranh cãi về AI có nhận thức – Tin Công Nghệ Số hóa được tổng hợp sưu tầm biên tập bởi: Sửa máy tính ITS. Mọi ý kiến vui lòng gửi Liên Hệ cho suamaytinhits.com để điều chỉnh. suamaytinhits.com tks.

Quảng Cáo
Đặt Banner Quảng cáo, Textlink, Guest Post
Liên Hệ Ngay: 1900636343

Bài Viết Liên Quan


Xếp Hạng
Quảng Cáo
Đặt Banner Quảng cáo, Textlink, Guest Post
Liên Hệ Ngay: 1900636343

Bài Viết Khác