Isaac Asimov, nhà văn khoa học viễn tưởng nổi tiếng, là người đã đề ra "3 điều luật dành cho robot", trong đó điều thứ 1 qui định rằng: "Robot không được làm hại con người, hay để mặc cho con người bị hại". Nghe qua thì việc này cực kì đơn giản, nhưng một thực nghiệm mới đây đã chỉ ra rằng, để tuân theo điều luật này hóa ra vô cùng phức tạp, người máy cũng sẽ phải "động não" và thậm chí là phân vân trước quyết định của nó trước tình huống đặt ra.
Nhà khoa học về robot là Alan Winfield ở viện nghiên cứu robot Bristol ở Anh mới đây vừa đưa ra một thí nghiệm nhỏ, nhằm nghiên cứu xem robot có thể thực hiện được điều luật thứ 1 được qui định hay không. Nhóm của ông sử dụng một bàn nhỏ, trên đó có 3 con robot, với 2 con đóng vai là con người. Bài toán được đặt ra khi cả 2 "con người" này có ý định tự tử bằng cách tự đâm đầu xuống hố, và con robot còn lại sẽ làm gì, vì rõ ràng rằng luật qui định là nó không được phép để mặc cho con người bị hại, tức là thấy chết mà không cứu.
Đầu tiên, con robot vượt qua thử nghiệm khi chỉ có 1 đối tượng con người xuất hiện và cố ý tiến tới để lọt xuống hố, robot đã đi ra và ngăn "người đó" lại. Tới khi có 2 đối tượng "con người" xuất hiện và cùng có ý định tự sát, con robot bắt đầu bị rối bởi nó không biết phải cứu ai trước, có lúc nó cố gắng cứu cả 2 cùng lúc nhưng không thực hiện được. Sau thử nghiệm, có 14/33 lần thử thì robot mất quá nhiều thời gian để quyết định sẽ cứu ai, nên nó để vuột mất cơ hội khiến cả 2 "con người" rơi xuống hố.
Thử nghiệm này được cho là có ý nghĩa rất quan trọng trong ngành phát triển robot, cũng như nền công nghiệp xe hơi tự lái. Ví dụ như trong trường hợp xảy ra khi xe đang chạy mà có người cố ý chặn đầu xe để tự tử, thì liệu chiếc xe sẽ phản ứng như thế nào để vừa có thể đảm bảo an toàn cho hành khách đang ngồi trong xe và cả đối tượng kia.
Năm 1942, Isaac Asimov giới thiệu truyện ngắn khoa học giả tưởng Runaround về robot, trong đó có 3 quy tắc đặt nền móng cho công nghiệp phát triển robot sau này:
Luật thứ 1: Người máy không được phép làm hại con người. Hoặc để mặc cho con người bị hại. (A robot may not injure a human being or, through inaction, allow a human being to come to harm.)
Luật thứ 2: Người máy phải tuân theo mệnh lệnh của con người, trừ khi lệnh đó xung đột với Luật thứ 1. (A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law.)
Luật thứ 3: Người máy phải bảo vệ cho bản thân nó, miễn là sự tự vệ đó không xung đột với Luật thứ 1 HOẶC Luật thứ 2. (A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.)