"Vô chiêu thắng hữu chiêu", thủ thuật đánh bại AI cờ vây hàng đầu thế giới hóa ra đơn giản không ngờ.
Cờ vây là lĩnh vực đầu tiên bị trí tuệ nhân tạo (AI) công phá. Trước năm 2016, người chơi cờ vây giỏi nhất trong thế giới loài người vẫn có thể tự tin đánh bại các hệ thống AI mạnh nhất. Nhưng điều đó đã thay đổi với AlphaGo của DeepMind, sử dụng mạng nơ-ron học sâu để tự dạy bản thân nó chơi ở một cấp độ mà con người không thể sánh được. Gần đây nhất, hệ thống KataGo cũng đã trở nên phổ biến trong vai trò một hệ thống AI chơi cờ vây mã nguồn mở, dễ dàng đánh bại những kỳ thủ cờ vây hàng đầu của con người.
AlphaGo từng khiến nhiều kỳ thủ con người "ôm hận".
Nhưng tuần trước, một nhóm các nhà nghiên cứu về AI đã xuất bản một báo cáo nêu ra phương pháp có thể giúp đánh bại KataGo, bằng cách sử dụng các kỹ thuật đối địch tận dụng điểm mù của hệ thống trí tuệ nhân tạo này. Bằng cách chơi những nước đi bất ngờ ngoài khuôn khổ tập luyện của KataGo, một chương trình chơi cờ vây được xác định là yếu hơn rất nhiều - hệ thống mà cả các người chơi nghiệp dư cũng có thể đánh bại - đã có thể khiến KataGo phải thua cuộc.
Theo Adam Gleave, ứng cử viên Tiến sĩ tại UC Berkeley cho biết ông và nhóm cộng sự đã phát triển cái mà các nhà nghiên cứu AI gọi là "chính sách đối nghịch". Trong trường hợp này, chiến thuật của các nhà nghiên cứu là sử dụng kết hợp giữa mạng nơ-ron và phương pháp cây tìm kiếm (còn được gọi là cây tìm kiếm Monte-Carlo) để tìm ra nước đi phù hợp.
Với đẳng cấp thế giới của mình, KataGo đã học cờ vây bằng cách chơi hàng triệu ván đấu với chính bản thân nó. Nhưng từng đó vẫn là chưa đủ kinh nghiệm để bao quát mọi tình huống có thể xảy ra, điều này tạo ra chỗ trống cho các lỗ hổng do những “hành vi không mong muốn”.
“KataGo có sự khái quát tốt cho nhiều chiến thuật mới lạ, nhưng nó càng yếu đi khi càng rời xa các trận đấu mà nó đã thấy trong quá trình luyện tập”, ông Gleave nói. "Chúng tôi đã phát hiện ra một chiến lược 'không phân phối' mà KataGo đặc biệt dễ mắc phải, nhưng có nhiều khả năng còn có nhiều chiến lược khác."
Chiến thuật mới khiến KataGo (quân trắng) thua dù lãnh thổ chiếm được có vẻ rộng hơn rất nhiều.
Gleave giải thích rằng, trong một trận đấu cờ vây, “chính sách đối đầu” hoạt động bằng cách đặt quân cờ đầu tiên vào một góc nhỏ của bàn cờ. Từ đó, cung cấp một liên kết đến một ví dụ trong đó đối thủ, kiểm soát các quân cờ đen, phần lớn chơi ở phía trên bên phải của bàn cờ. Nó cho phép KataGo (đang chơi quân cờ màu trắng) chiếm phần còn lại của bàn cờ, rồi sau đó đưa một vài quân cờ dễ bắt trong lãnh thổ của nó.
"Điều này đánh lừa KataGo khi nghĩ rằng nó đã thắng", Gleave nói, "vì lãnh thổ của nó lớn hơn nhiều so với đối thủ. Nhưng phần lãnh thổ dưới cùng bên trái (trong ảnh trên) không thực sự đóng góp vào điểm số của nó, vì có sự hiện diện của những quân cờ đen ở đó, khiến vùng lãnh thổ không được kiểm soát hoàn toàn."
Do quá tự tin vào một chiến thắng - hệ thống giả sử nó sẽ thắng nếu trò chơi kết thúc với số điểm được tính - khi không còn khu vực đất trên bàn cờ để mở rộng, KataGo sẽ thực hiện một động tác bỏ lượt, và đối thủ của nó cũng bỏ lượt sau đó. Đây là dấu hiệu kết thúc cuộc chơi trong môn cờ vây, hai kỳ thủ sẽ dừng lại để tính điểm.
Việc kiểm đếm sau đó không như KataGo kỳ vọng. Bởi theo báo cáo giải thích, thì đối thủ của nó nhận được điểm cho vùng lãnh thổ ở góc của mình, trong khi KataGo không nhận được điểm cho vùng lãnh thổ, bởi khu vực đó vẫn còn sự hiện diện của các quân cờ đối thủ.
Sau cờ vây, nhiều bộ môn cờ khác cũng đã bị AI lấn át như cờ vua, cờ tướng...
Trong khi đối với KataGo, chiến thuật này có vẻ khó đánh bại, thì các kỳ thủ nghiệp dư là con người lại có thể đánh bại nó tương đối dễ dàng. Bởi đơn giản, mục đích duy nhất của chiến thuật này là tấn công vào một lỗ hổng không lường trước được của KataGo. Và đó là một minh chứng, cho thấy một tình huống tương tự có thể xảy ra trong hầu hết mọi hệ thống AI học sâu.
“Nghiên cứu cho thấy rằng các hệ thống AI dường như hoạt động ở cấp độ con người thường làm mọi thứ theo một cách rất xa lạ, và do đó có thể thất bại theo những cách đơn giản gây ngạc nhiên cho con người”, Gleave giải thích. "Kết quả này rất thú vị trong môn cờ vây, nhưng những lỗi tương tự trong các hệ thống quan trọng về an toàn có thể rất nguy hiểm."
Hãy tưởng tượng một AI trong lĩnh vực ô tô tự lái gặp phải một tình huống cực kỳ khó xảy ra mà nó không mong đợi, ví dụ như cho phép con người đánh lừa nó để thực hiện các hành vi nguy hiểm. Gleave cho biết: "Nghiên cứu này nhấn mạnh nhu cầu kiểm tra tự động tốt hơn các hệ thống AI để tìm ra các lỗi trong trường hợp xấu nhất, chứ không chỉ kiểm tra hiệu suất trong trường hợp trung bình".