Giáo sư vật lý Hawing và tỷ phú Musk cùng nhiều nhà khoa học cảnh báo, một cuộc chạy đua vũ khí toàn cầu dựa trên việc sử dụng trí thông minh nhân tạo gần như chắc chắn xảy ra, trừ phi thế giới cấm phát triển những loại vũ khí này.
Tỷ phú Elon Musk, giám đốc điều hành Tập đoàn Công nghệ Khai phá Không gian (SpaceX), ông hoàng vật lý Stephen Hawking và nhiều chuyên gia công nghệ cao khác đã ký vào thư ngỏ, cảnh báo và phản đối một cuộc chạy đua vũ khí toàn cầu có sử dụng trí thông minh nhân tạo (AI), trừ phi Liên Hợp Quốc ủng hộ lệnh cấm những loại vũ khí mà con người "không kiểm soát được."
Robot hoạt động dựa trên trí thông minh nhân tạo. (Ảnh minh họa: Digital Storm/Shutterstock)
Tổ chức Future of Life (Tương lai Sự sống) trình bày lá thư trên tại Hội nghị Quốc tế về Trí thông minh nhân tạo, diễn ra ở Buenos Aires, Argentina hôm 27/7.
"Câu hỏi then chốt cho nhân loại ngày nay là nên bắt đầu một cuộc chạy đua vũ khí AI toàn cầu hay ngăn chặn nó ngay từ đầu. Chỉ cần bất kỳ cường quốc quân sự nào thúc đẩy phát triển vũ khí AI, sẽ không tranh khỏi một cuộc chạy đua vũ trang toàn thế giới," Live Science trích dẫn bức thư.
Những người ký tên trong bức thư cũng nói rằng, rủi ro gây ra bởi vũ khí AI có thể lớn hơn nhiều so với vũ khí hạt nhân.
Hiện có rất nhiều công việc robot thay người thực hiện, từ xe hơi tự lái cho đến robot tình dục. Sự phát triển tất yếu của những cỗ máy AI cho thấy cả hai viễn cảnh "không tưởng" và "tận thế" trong tương lai.
Vấn đề trí thông minh nhân tạo bất hảo đe dọa con người là đặc điểm nổi bật ở các bộ phim khoa học viễn tưởng như "The Matrix - Ma Trận" và "2001: A Space Odyssey - Chuyến du hành không gian năm 2001." Tuy nhiên, nỗi sợ hãi này ngày càng tăng lên và không chỉ diễn ra trên phim ảnh. Chính các nhà nghiên cứu trí thông minh nhân tạo cũng bày tỏ mối lo ngại về những cách tân trong lĩnh vực này.
"Vũ khí AI tự động, chẳng hạn máy bay không người lái tìm kiếm và giết người nhờ sử dụng thuật toán nhận diện khuôn mặt, là công nghệ có thể xuất hiện trong một vài năm tới," các tác giả của bức thư tranh luận.
Thêm vào đó, vật liệu chế tạo những cỗ máy giết người AI không đắt hay khó tìm, nên mọi cường quốc quân sự trên thế giới đều có thể sở hữu chúng. Những kẻ xấu, kẻ khủng bố dễ dàng mua chúng ngoài chợ đen và sử dụng vào mục đích bất chính.
"Vũ khí tự động rất lý tưởng cho nhiệm vụ ám sát, gây mất ổn định quốc gia, đàn áp dân chúng và tiêu diệt chọn lọc một nhóm người riêng biệt. Vì vậy chúng tôi tin rằng cuộc chạy đua vũ khí quân sự AI không có lợi cho nhân loại," bức thư viết.
Đây không phải lần đầu tiên các nhà khoa học và công nghệ hàng đầu cảnh báo về sự nguy hiểm của AI. Năm 2104, nhà vật lý Stephen Hawking từng nói "Sự phát triển trí thông minh nhân tạo đạt đến mức hoàn thiện có thể là dấu hiệu kết thúc của nhân loại".
Hawking và Musk cùng ký vào bức thư của tổ chức Future of Life vào tháng 1/2015, đồng thời đưa ra lời cảnh báo rằng AI là mối nguy hiểm rất lớn, trừ phi nhân loại có thể đảm bảo hệ thống AI sẽ "làm theo những gì chúng ta muốn".