Khi AI phạm sai lầm thì ai là người phải chịu trách nhiệm?

1140

Ngày 26 tháng 9 năm 1983, của Stanislav Petrov, một sĩ quan thuộc lực lượng phòng vệ Không quân Liên Xô, cho biết ông đã nghe thấy tiếng báo động từ hệ thống cảnh báo cho thấy Mỹ đã phóng 5 tên lửa hạt nhân.

Tuy vậy, Petrov nghi ngờ rằng đã có lỗi với bộ cảm biến của hệ thống thế nên anh đã chờ đợi thay vì cảnh báo cấp trên ngay lập tức, người vốn rất có thể sẽ cho lệnh bắn trả lại.

Sau vài phút căng thẳng, nghi ngờ của Petrov đã được minh chứng là chính xác khi không có gì xảy ra. Không hề có bất cứ cuộc phóng tên lửa nào từ Mỹ, và như vậy thế giới đã tránh được một thảm hoạ hạt nhân nhờ vào quyết định của một người lính nga đầy quả cảm.

Tiến sĩ John Kingston, một giảng viên cao cấp về máy tính, kỹ thuật và toán học tại Đại học Brighton ở Anh, đã nhận xét rằng cảnh báo sai lầm đó được cho là do một vệ tinh trong quá trình di chuyển quanh trái đất đã vô tình phản chiếu ánh sáng mặt trời lên bộ cảm ứng khiến cho hệ thống cảnh báo hiểu nhầm là tên lửa.

Kingston cũng cho rằng ngay cả một hệ thống AI cũng sẽ dễ dàng bị mắc lừa.

“Nếu một hệ thống AI đã chịu trách nhiệm về việc phóng tên lửa của Liên Xô vào ngày hôm đó thay vì Petrov, có thể nó sẽ đã nhầm lẫn giữa vệ tinh và tên lửa”, Kingston viết. “Và tất nhiên hệ thống thì làm sao mà có khả năng chịu trách nhiệm được cho sự hủy diệt toàn cầu được khi nó còn không có suy nghĩ riêng của chính mình”

Trong bài báo của ông, Kingston đã tìm hiểu đào sâu về vấn đề trách nhiệm của AI

Trách nhiệm hình sự

Kingston đã phân tích các yêu cầu pháp lý về trách nhiệm hình sự theo luật pháp Hoa Kỳ và xem xét nó có thể áp dụng như thế nào với phần mềm AI.

Ông nhận ra đã có một khuôn mẫu tương tự, được viết bởi Gabriel Hallevy, một giáo sư tại trường cao đẳng Ono Academic của Israel, đưa ra trong năm 2010.

Nếu một chương trình AI đưa ra các quyết định sai lầm, nó có thể được toà án phán xét như một thực thể không đủ năng lực hành vi dân sự. Phần mềm, và cha đẻ của nó, sau đó sẽ được xem như vô tội, trừ khi có bằng chứng là nó đã hoạt động dưới sự chỉ đạo của các lập trình viên hoặc người dùng.

Các lập trình viên có thể bị coi là có phạm tội nếu nó gây ra hậu quả hoặc đe dạo gây ra hậu quả nghiêm trọng đối với các hoạt động của phần mềm. Kingston kể lại câu chuyện về một công nhân nhà máy Nhật Bản không may bị chết bởi một cánh tay robot khi nó nhầm anh ta với một chiếc xe máy. Đây là ví dụ điển hình cho việc các nhà phát triển phải có dự trù cho các trước hợp có thể xảy ra nhằm tránh bị vướng vào vấn đề pháp lí.

Một trường hợp khác là khi phần mềm có đủ điều kiện để chịu trách nhiệm trực tiếp. Tuy nhiên, điều này khá phức tạp bởi vì bạn sẽ phải chứng minh là nó thật sự có khả năng suy nghĩ và nhận biết như một con người.

Trong một số trường hợp đặc biệt thì việc không có ý thức vẫn sẽ chịu trách nhiệm pháp lí. Ví dụ như việc một chiếc xe hơi tự lái vẫn có thể bị đổ lỗi cho việc tăng tốc sai luật điều mà đáng lí ra code đã phải ngăn cản nó.

Kingston chỉ ra rằng việc chứng minh một hệ thống AI có khả năng chịu trách nhiệm pháp lí hay không sẽ không giúp làm sáng tỏ việc ai phải chịu trách nhiệm. Và lưu ý rằng máy tính vẫn có quyền bảo vệ quyền lợi của mình trong một số trường hợp đặc biệt khiến nó không thể hoạt động bình thường như bị virus xâm nhập vào hệ thống.

Ông cũng tiếp tục phân tích cách thức luật dân sự có thể áp dụng. Phần mềm AI vẫn có thể phạm phải lỗi do sơ suất nếu như nó có nghĩa vụ phải chăm sóc người/vật nhưng lại không làm như vậy, dẫn tới một số thương tích cho chủ.

“Tôi hy vọng xã hội sẽ xem các lỗi do AI gây ra như là do sơ suất (bởi ai đó hay người nào khác), điều này thì dễ dàng chứng minh hơn”, ông nói.

“Việc không sửa hoặc để thiếu các lỗi bug sẽ được qui tội sơ suất và lập trình viên sẽ phải chịu trách nhiệm cho AI của họ”, ông giải thích thêm rằng các chi tiết cụ thể sẽ phụ thuộc vào người có thẩm quyền.

Kingston cho biết xã hội có thể yêu cầu nhiều chứng nhận hơn cho những người có liên quan đến code. Ông nói, “nó sẽ không chỉ là lập trình viên mà còn liên quan tới các nhà phân tích, thiết kế hệ thống, etc…”

Ngoài ra cũng có nhiều cách thức khác để cải thiện như “một chương trình thiết kế, kiểm tra và xác minh rất cẩn thận nhằm bảo đảm sản phẩm tạo ra có khả năng đáp ứng được mực độ an toàn cần thiết”

Kingston đề nghị các sản phẩm AI cũng nên có bảo hiểm bồi thường giống như các mọi con người khác. “Tuy vậy, điều này sẽ dận tới câu hỏi khác là ai nên mua bảo hiểm – nhà phát minh, nhà thiết kế, nhà sản xuất hay nhà cung cấp?”, ông nói.

Techtalk via theregister

CHIA SẺ