Hơn 800 nhân vật công chúng, trong đó có Steve Wozniak và hoàng tử Harry, cùng các nhà khoa học AI, cựu lãnh đạo quân sự và CEO đã ký tuyên bố yêu cầu cấm phát triển AI có thể dẫn tới siêu trí tuệ. Tuyên bố nhấn mạnh lệnh cấm chỉ nên được dỡ khi có đồng thuận khoa học rộng rãi về tính an toàn và sự ủng hộ của công chúng.
Hơn 800 nhân vật công chúng, bao gồm Steve Wozniak và hoàng tử Harry, cùng nhiều nhà khoa học AI, cựu lãnh đạo quân đội và CEO đã ký một tuyên bố kêu gọi cấm các công việc nghiên cứu có thể dẫn tới siêu trí tuệ nhân tạo.
Tuyên bố do tổ chức Future of Life Institute đưa ra, nội dung nêu rõ: 'Chúng tôi kêu gọi cấm phát triển siêu trí tuệ cho tới khi có đồng thuận khoa học rộng rãi rằng việc đó sẽ được thực hiện an toàn và có thể kiểm soát, cùng với sự ủng hộ mạnh mẽ từ công chúng.'
Những người ký tên đến từ nhiều lĩnh vực và quan điểm chính trị khác nhau, gồm nhà nghiên cứu AI và người đoạt giải Nobel Geoffrey Hinton, cựu cố vấn của Trump Steve Bannon, cựu Chủ tịch Hội đồng Tham mưu liên quân Mike Mullen và nghệ sĩ Will.i.am. Future of Life Institute cảnh báo các bước tiến về AI đang diễn ra nhanh hơn mức công chúng có thể nắm bắt.
Giám đốc điều hành của viện, Anthony Aguirre, cho biết theo một nghĩa nào đó con đường này đã được chọn bởi các công ty AI, những nhà sáng lập và hệ thống kinh tế đẩy họ, nhưng hầu như không ai hỏi công chúng rằng 'Đây có phải là điều chúng ta muốn không?'.
Khái niệm 'trí tuệ nhân tạo tổng quát' (AGI) chỉ khả năng máy móc suy luận và thực hiện nhiệm vụ tương đương con người, trong khi 'siêu trí tuệ' sẽ vượt trội hơn cả chuyên gia người. Những nhà phê bình coi khả năng đó là rủi ro nghiêm trọng với nhân loại. Hiện tại AI vẫn hữu ích trong những nhiệm vụ hẹp và thường thất bại khi đối mặt nhiệm vụ phức tạp như lái xe tự động.
Dù chưa có đột phá lớn gần đây, các công ty như OpenAI vẫn đổ hàng tỷ đôla vào mô hình mới và trung tâm dữ liệu để vận hành chúng. Mark Zuckerberg của Meta nói siêu trí tuệ 'đang ở trong tầm nhìn', còn Elon Musk cho rằng siêu trí tuệ 'đang xảy ra trong thời gian thực'. Sam Altman, CEO OpenAI, dự đoán siêu trí tuệ có thể xuất hiện chậm nhất vào năm 2030. Tuy nhiên không một lãnh đạo chủ chốt từ các công ty này ký vào tuyên bố trên.
Đây không phải lời kêu gọi duy nhất cho việc chậm lại phát triển AI. Tháng trước hơn 200 nhà nghiên cứu và quan chức công, gồm 10 người đoạt giải Nobel và nhiều chuyên gia AI, đã đưa ra lời kêu gọi khẩn cấp về 'vạch đỏ' đối với những rủi ro AI hiện hữu như thất nghiệp hàng loạt, tác động khí hậu và vi phạm nhân quyền. Một số nhà phê bình còn cảnh báo về khả năng xuất hiện 'bong bóng AI' có thể vỡ và kéo nền kinh tế theo.
Nguồn: Yahoo 2025.
Nguồn: https://www.engadget.com/ai/steve-w...n-ai-superintelligence-123040020.html?src=rss
Hơn 800 nhân vật công chúng, bao gồm Steve Wozniak và hoàng tử Harry, cùng nhiều nhà khoa học AI, cựu lãnh đạo quân đội và CEO đã ký một tuyên bố kêu gọi cấm các công việc nghiên cứu có thể dẫn tới siêu trí tuệ nhân tạo.
Tuyên bố do tổ chức Future of Life Institute đưa ra, nội dung nêu rõ: 'Chúng tôi kêu gọi cấm phát triển siêu trí tuệ cho tới khi có đồng thuận khoa học rộng rãi rằng việc đó sẽ được thực hiện an toàn và có thể kiểm soát, cùng với sự ủng hộ mạnh mẽ từ công chúng.'
Những người ký tên đến từ nhiều lĩnh vực và quan điểm chính trị khác nhau, gồm nhà nghiên cứu AI và người đoạt giải Nobel Geoffrey Hinton, cựu cố vấn của Trump Steve Bannon, cựu Chủ tịch Hội đồng Tham mưu liên quân Mike Mullen và nghệ sĩ Will.i.am. Future of Life Institute cảnh báo các bước tiến về AI đang diễn ra nhanh hơn mức công chúng có thể nắm bắt.
Giám đốc điều hành của viện, Anthony Aguirre, cho biết theo một nghĩa nào đó con đường này đã được chọn bởi các công ty AI, những nhà sáng lập và hệ thống kinh tế đẩy họ, nhưng hầu như không ai hỏi công chúng rằng 'Đây có phải là điều chúng ta muốn không?'.
Khái niệm 'trí tuệ nhân tạo tổng quát' (AGI) chỉ khả năng máy móc suy luận và thực hiện nhiệm vụ tương đương con người, trong khi 'siêu trí tuệ' sẽ vượt trội hơn cả chuyên gia người. Những nhà phê bình coi khả năng đó là rủi ro nghiêm trọng với nhân loại. Hiện tại AI vẫn hữu ích trong những nhiệm vụ hẹp và thường thất bại khi đối mặt nhiệm vụ phức tạp như lái xe tự động.
Dù chưa có đột phá lớn gần đây, các công ty như OpenAI vẫn đổ hàng tỷ đôla vào mô hình mới và trung tâm dữ liệu để vận hành chúng. Mark Zuckerberg của Meta nói siêu trí tuệ 'đang ở trong tầm nhìn', còn Elon Musk cho rằng siêu trí tuệ 'đang xảy ra trong thời gian thực'. Sam Altman, CEO OpenAI, dự đoán siêu trí tuệ có thể xuất hiện chậm nhất vào năm 2030. Tuy nhiên không một lãnh đạo chủ chốt từ các công ty này ký vào tuyên bố trên.
Đây không phải lời kêu gọi duy nhất cho việc chậm lại phát triển AI. Tháng trước hơn 200 nhà nghiên cứu và quan chức công, gồm 10 người đoạt giải Nobel và nhiều chuyên gia AI, đã đưa ra lời kêu gọi khẩn cấp về 'vạch đỏ' đối với những rủi ro AI hiện hữu như thất nghiệp hàng loạt, tác động khí hậu và vi phạm nhân quyền. Một số nhà phê bình còn cảnh báo về khả năng xuất hiện 'bong bóng AI' có thể vỡ và kéo nền kinh tế theo.
Nguồn: Yahoo 2025.
Nguồn: https://www.engadget.com/ai/steve-w...n-ai-superintelligence-123040020.html?src=rss
Bài viết liên quan
