Eliezer Yudkowsky, chuyên gia nghiên cứu kiêm tác giả Trí tuệ nhân tạo tổng quát 2001, mới đây vừa phản hồi lại bức thư kêu gọi tạm ngừng phát triển AI trong 6 tháng của giới tinh hoa công nghệ. Nhận định được đăng tải với tiêu đề “Tạm dừng phát triển AI là chưa đủ. Chúng ta cần phải chấm dứt tất cả”, nhằm mục đích nhấn mạnh mức độ nghiêm trọng của tình hình.
“Nhiều người, trong đó có cả tôi, dự đoán rằng việc xây dựng một AI thông minh siêu phàm sẽ khiến mọi người trên Trái đất chết theo đúng nghĩa đen”, Eliezer Yudkowsky nói, đồng thời cho biết AI “không quan tâm đến con người cũng như cuộc sống tri giác nói chung”. “Chúng ta còn lâu mới thấm nhuần những nguyên tắc đó trong công nghệ hiện tại”.
Đồng thời, Yudkowsky đề xuất một lệnh cấm “vô thời hạn trên toàn thế giới” với AI, thậm chí không có ngoại lệ đối với chính phủ hoặc quân đội.
Theo BI, Yudkowsky trong nhiều năm đã đưa ra nhiều cảnh báo về hệ lụy từ AI. Đầu tháng 3, ông cũng được Bloomberg gọi là “AI Doomer” – người nghi ngờ khả năng xảy ra “ngày tận thế của AI”.
Đáp lại, người đồng sáng lập kiêm Giám đốc điều hành Open AI Sam Altman nhận định Yudkowksy xứng đáng nhận “giải thưởng Nobel hòa bình” vì những nghiên cứu của ông chỉ càng đẩy nhanh sự phát triển của AI.
Được biết, kể từ khi OpenAI ra mắt chatbot ChatGPT vào tháng 11, nó đã trở thành ứng dụng phát triển nhanh nhất lịch sử Internet. Google, Microsoft và những gã khổng lồ công nghệ khác trước cơn sốt này đã cạnh tranh tung ra các sản phẩm trí tuệ nhân tạo của riêng mình.
Theo Henry Ajder, một chuyên gia về AI, các công ty công nghệ “đang bị nhốt trong một môi trường chạy đua siêu cấp”, vậy nên vấn đề đạo đức và an toàn trong AI có thể dễ dàng bị bỏ qua.
Trước đó, Google cũng không chưa dám mạo hiểm với các sản phẩm AI do còn e ngại vấn đề đạo đức trí tuệ nhân tạo. Tập đoàn này cũng sợ ‘tự bắn vào chân mình’ bởi trong chatbot nói riêng hay khái niệm ‘dịch vụ hội thoại’ nói chung, điều cấm kỵ nhất là quảng cáo – lĩnh vực đem lại nguồn thu chính cho Google.
Được biết cách đây ít ngày, đồng sáng lập Apple Steve Wozniak, Elon Musk cùng hơn 1.000 nhà lãnh đạo doanh nghiệp vừa ký một bức thư yêu cầu các biện pháp bảo mật và tạm dừng phát triển các mô hình AI trong bối cảnh công nghệ trí tuệ nhân tạo bùng nổ. Họ lập luận rằng các mô hình AI mạnh mẽ như GPT-4 của OpenAI chỉ nên phát triển nếu dành được sự tin tưởng và kiểm soát được toàn bộ rủi ro.
“Chỉ nên phát triển các hệ thống AI mới khi chúng mang lại tác động tích cực và con người có thể kiểm soát mọi rủi ro. Do đó, chúng tôi kêu gọi tất cả phòng thí nghiệm AI tạm dừng việc đào tạo các hệ thống AI mạnh hơn GPT-4 trong vòng ít nhất 6 tháng”, bức thư nêu rõ.
Đây không phải lần đầu các tinh hoa công nghệ lên tiếng kêu gọi “rào chắn” xung quanh AI – thứ đang ngày càng tinh vi và phát triển mạnh mẽ.
“Đó là một ý tưởng rất hay để làm chậm quá trình phát triển mô hình mới bởi vì nếu AI thực sự tốt, việc chờ đợi hàng tháng hoặc hàng năm cũng chẳng có hại gì, dù sao chúng ta cũng sẽ đi đến đích”, James Grimmelmann, giáo sư về kỹ thuật số cho biết. “Nếu nó có hại, chúng tôi chỉ cần dành thêm thời gian để hoạch định cách đối phó”.
Elon Musk trước đây vốn rất háo hức về những công nghệ kỳ vọng là tương lai của nhân loại, từ ô tô điện cho đến dịch vụ Internet vệ tinh Starlink. Tuy nhiên, khi nhắc đến trí tuệ nhân tạo, CEO Tesla lại tỏ ra khá thận trọng. Phát biểu tại Đại học MIT vào năm 2014, Musk gọi AI là “mối đe dọa hiện hữu lớn nhất”, thậm chí so sánh nó với công cụ hủy diệt trái đất.
“OpenAI nên công khai hơn nữa”, vị tỷ phú tweet về cuộc điều tra của MIT Technology Review với OpenAI, sau đó quyết định tạm dừng quyền truy cập của OpenAI vào cơ sở dữ liệu Twitter.
Trong một cuộc họp báo diễn ra hôm 29/3, nhà khoa học máy tính Yoshua Bengio, người tham gia ký vào bức thư cũng bày tỏ lo ngại về sự bành trướng của AI và các công ty công nghệ.
“Quyền lực đang tập trung về những gã khổng lồ công nghệ và các công cụ AI có khả năng gây bất ổn cho nền dân chủ”, Bengio phát biểu.
Dẫu vậy, vẫn có ý kiến cho rằng bức thư đang “thổi phồng” tác hại của AI thay vì đề xuất cách giải quyết những vấn đề trước mắt.
“Về cơ bản, bức thư đang định hướng sai. Nó khiến người đọc chú ý đến mặt trái của AI và đề xuất những cách giải quyết mơ hồ”, Sasha Luccioni, nhà khoa học tại Hugging Face, nhận định.
Bên cạnh đó, Timnit Gebru, nhà sáng lập Distributed AI Research Institute cho biết, cô cảm thấy mỉa mai khi giới tinh hoa công nghệ kêu gọi tạm dừng sử dụng các mô hình mạnh hơn GPT-4, nhưng lại không giải quyết được những mối lo ngại xung quanh nó.
“Những vấn đề cấp bách như đánh cắp dữ liệu, nghèo đói ở Châu Phi hay cách phát triển xã hội… mới điều chúng ta cần quan tâm”, Gebru nói.
Theo: BI, Reuters
Để lại một phản hồi