HAPPYFOOD - Bữa ăn ngon cho gia đình hạnh phúc - Make Family Happy!

Chuyên gia: AI sẽ sớm vượt khỏi tầm kiểm soát, trở thành mối đe dọa lớn nhất của nhân loại, Chính phủ các nước cần lên kế hoạch ứng phó khẩn cấp

Diệp Thảo

(Thị trường tài chính) - Các nhà khoa học hàng đầu về trí tuệ nhân tạo (AI) trên thế giới đang kêu gọi các Chính phủ hợp tác để quản lý công nghệ này trước khi quá muộn.

Ba người đoạt giải Turing— tương đương giải Nobel trong lĩnh vực khoa học máy tính — những người đã dẫn đầu nghiên cứu và phát triển AI, đã cùng với hàng chục nhà khoa học hàng đầu trên khắp thế giới ký vào một bức thư ngỏ kêu gọi tạo ra các biện pháp bảo vệ tốt hơn cho sự phát triển của AI.

Các nhà khoa học cho rằng khi công nghệ AI phát triển nhanh chóng, bất kỳ sai lầm hoặc sự lạm dụng nào cũng có thể mang lại hậu quả nghiêm trọng cho nhân loại.

“Việc mất kiểm soát của con người hoặc việc sử dụng ác ý các hệ thống AI này có thể dẫn đến những hậu quả thảm khốc cho toàn nhân loại”, các nhà khoa học viết trong bức thư. Họ cũng cảnh báo rằng với tốc độ phát triển nhanh chóng của AI, những “hậu quả thảm khốc” này có thể xảy ra bất cứ lúc nào.

Chuyên gia: AI sẽ sớm vượt khỏi tầm kiểm soát, trở thành mối đe dọa lớn nhất của nhân loại, Chính phủ các nước cần lên kế hoạch ứng phó khẩn cấp - ảnh 1
Ảnh minh họa

Các nhà khoa học đã nêu ra các bước sau đây để bắt đầu giải quyết ngay lập tức nguy cơ lạm dụng AI:

Cơ quan an toàn AI của Chính phủ

Chính phủ các nước cần hợp tác về các biện pháp an toàn AI. Một số ý tưởng mà các nhà khoa học đưa ra bao gồm khuyến khích các quốc gia phát triển các cơ quan AI cụ thể để ứng phó với các "sự cố" và rủi ro AI trong phạm vi lãnh thổ của họ. Các cơ quan này sẽ hợp tác với nhau, và về lâu dài, một cơ quan quốc tế mới nên được thành lập để ngăn chặn sự phát triển của các mô hình AI gây rủi ro cho thế giới.

Cam kết an toàn AI từ các nhà phát triển

Một ý tưởng khác là yêu cầu các nhà phát triển phải có chủ đích đảm bảo tính an toàn cho các mô hình của họ, cam kết rằng họ sẽ không vượt qua các ranh giới đỏ. Các nhà phát triển cam kết sẽ không tạo ra AI "có khả năng tự động sao chép, cải thiện, tìm kiếm quyền lực hoặc lừa dối người tạo ra chúng, hoặc những AI cho phép chế tạo vũ khí hủy diệt hàng loạt và tiến hành các cuộc tấn công mạng", như đã nêu trong một tuyên bố của các nhà khoa học hàng đầu tại một cuộc họp ở Bắc Kinh vào năm ngoái. 

Nghiên cứu độc lập và kiểm tra công nghệ về AI

Một đề xuất khác là tạo ra một loạt quỹ an toàn và xác minh AI toàn cầu, được tài trợ bởi các Chính phủ, nhà từ thiện và các tập đoàn, nhằm tài trợ cho nghiên cứu độc lập để phát triển các phương pháp kiểm tra công nghệ tốt hơn cho AI.

Trong số các chuyên gia kêu gọi Chính phủ hành động vì sự an toàn của AI bao gồm Andrew Yao, người cố vấn của một số doanh nhân công nghệ thành công nhất Trung Quốc; Yoshua Bengio, một trong những nhà khoa học máy tính được trích dẫn nhiều nhất trên thế giới và Geoffrey Hinton, người đã từng hướng dẫn cho nhà đồng sáng lập của OpenAI là Ilya Sutskever và đã làm việc suốt một thập kỷ về học máy tại Google.

Hợp tác và đạo đức AI

Trong bức thư, các nhà khoa học đã khen ngợi sự hợp tác quốc tế hiện có về AI, chẳng hạn như cuộc họp vào tháng 5 giữa các nhà lãnh đạo từ Mỹ và Trung Quốc ở Geneva để thảo luận về rủi ro AI. Tuy nhiên, họ cho rằng cần nhiều sự hợp tác hơn nữa.

Sự phát triển của AI nên đi kèm với các chuẩn mực đạo đức cho các kỹ sư, tương tự như những chuẩn mực áp dụng cho bác sĩ hoặc luật sư, các nhà khoa học lập luận. Chính phủ các nước nên coi AI không chỉ là một công nghệ mới hấp dẫn, mà còn là một tài sản công toàn cầu. 

“Chúng ta phải cùng nhau chuẩn bị để ngăn chặn những rủi ro thảm khốc có thể xảy ra bất cứ lúc nào”, bức thư viết.

Theo Fortune