Sự tiến bộ ngày càng vượt trội của AI (trí thông minh nhân tạo) đã khiến rất nhiều nhà khoa học, tương lai học bày tỏ thái độ lo ngại trước các năng lực mà AI có thể đạt được.
Theo Rappler, những bộ phim giả tưởng như Terminator, Eagle Eye, Ex Machina... đã phác hoạ cho chúng ta phần nào về các mối đe doạ mà AI có thể mang lại cho con người. Ở phía ngược lại, cũng không thiếu các bộ phim có thể "lấy nước mắt người xem" như Chappie hay Big Hero 6 khi cho thấy - AI có thể còn "nhân văn" hơn cả con người, nếu được phát triển đúng. Tất nhiên, các bộ phim trên chỉ là sự tưởng tượng của các đạo diễn Hollywood. Nhưng chúng cho thấy AI thực sự là một "ổ trứng" và có nhiều "gà con" sẽ ra đời.
Thời gian gần đây, một chương trình AI có tên Libratus đã đánh bại cả 4 người chơi poker chuyên nghiệp. Kết quả đó được chính người viết Libratus đánh giá là "một bước ngoặt quan trọng". Vì poker đó luôn được xem là một thách thức dành cho AI, tính tới lúc Libratus xuất hiện. Rồi về sau, các AI khác lần lượt đánh bại các kỳ thủ cờ vua và cờ vây chuyên nghiệp hàng đầu thế giới. Những hiện tượng này cho thấy AI từ chỗ có trí khôn "hạn hẹp" đã bắt đầu tăng tốc và cơ bản đã "đuổi kịp" con người ở một số lĩnh vực. Xét về tương lai xa hơn, ngày mà AI có thể khôn "như con người" trên mọi mặt và thậm chí là vượt qua, sẽ không còn là phim viễn tưởng.
Vậy đâu là "trứng lành" và đâu là "trứng bệnh"? Làm sao để lứa "gà con" sinh ra sẽ tạo ra được nhiều lợi ích nhất cho con người chứ không phải là điều đáng sợ nhất của nhân loại? Từng khối óc đơn lẻ suy nghĩ có lẽ không hiệu quả bằng nhiều bộ não cùng họp lại và cùng bàn luận. Vì vậy mà một hội thảo có tên Beneficial AI (AI có lợi) vừa được tổ chức vào tháng Giêng vừa qua tại California (Mỹ) đã ghi nhận ý kiến của rất nhiều người (cả chuyên môn AI lẫn không chuyên) nhằm tìm ra một bộ nguyên tắc "ứng xử chung" dành cho AI.
Beneficial AI được tổ chức bởi Học viện Cuộc sống Tương lai (Future of Life - FOL). Đây là một tổ chức phi lợi nhuận được thành lập bởi nhà thiên văn học Max Tegmark thuộc ĐH MIT, đồng sáng lập Skype Jaan Tallinn và nhà nghiên cứu DeepMind Viktoriya Krakovna từ tháng 3/2014.
Trên trang chủ của mình, FOL mô tả quá trình thành lập các nguyên tắc cho AI như sau: "Chúng tôi tập hợp mọi báo cáo mà chúng tôi có thể và biên soạn thành một danh sách các ý kiến dựa trên điểm số về việc xã hội nên làm gì để quản lý AI một cách tốt nhất trong nhiều thập kỷ tới. Từ danh sách này, chúng tôi tìm ra những điểm trùng lặp rồi đơn giản hoá chúng, cũng như cố gắng chắt lọc ra càng nhiều càng tốt những thứ chúng ta có thể đem lập thành một bộ nguyên tắc nền tảng, vốn có thể đạt tới một mức độ đồng thuận chung nhất".
Sau cùng, một bộ nguyên tắc chung đã được thành lập có tên gọi "23 Nguyên tắc AI Asilomar" (Asilomar là nơi hội thảo diễn ra, nằm tại California) nếu nó đạt được sự đồng thuận của trên 90% những người tham gia hội thảo. Theo Gizmodo, từ lúc được lập ra, bộ nguyên tắc này đã được gần 2300 người ủng hộ, gồm cả 880 các nhà robot học và nhà nghiên cứu AI. Các thành viên thuộc hội đồng tham vấn của FOL, gồm cả nhà vật lý Stephen Hawking lẫn CEO công nghệ Elon Musk, cũng đã "gật đầu" với các nguyên tắc trên.
Chi tiết các nguyên tắc, do trang Rappler tổng hợp:
VỀ LĨNH VỰC NGHIÊN CỨU
1. Mục đích nghiên cứu - Mục đích nghiên cứu AI không chỉ là tạo ra trí thông minh không có định hướng, mà là trí thông minh có ích.
2. Quỹ hỗ trợ nghiên cứu - Các khoản đầu tư vào AI nên được đồng hành với các quỹ nghiên cứu (AI) nhằm đảm bảo chúng được dùng theo hướng có ích, bao gồm các những câu hỏi "gai góc" liên quan đến khoa học máy tính, kinh tế, luật, đạo đức, xã hội nhân văn... Đại loại như:
- Chúng ta làm thế nào để các hệ thống AI tương lai có thể đạt hiệu suất cao, để chúng có thể làm làm được điều chúng ta muốn mà không bị lỗi hoặc bị hack?
- Chúng ta làm thế nào để mở rộng sự thịnh vượng nhờ các quy trình tự động hoá trong khi vẫn bảo tồn được các tài nguyên và mục đích của nhân loại?
- AI cần tuân thủ theo những tập giá trị nào, và chúng cần có các quy chuẩn pháp lý lẫn đạo đức gì?
3. Liên kết chính sách - khoa học - Cần có sự trao đổi mang tính xây dựng và lành mạnh giữa các nhà nghiên cứu AI lẫn nhà làm luật.
4. Văn hoá nghiên cứu - Cần có một nền văn hoá dựa trên sự hợp tác, niềm tin và trung thực giữa các nhà nghiên cứu và nhà phát triển AI.
5. Không cần đua đòi - Các nhóm phát triển AI cần chủ động hợp tác lẫn nhau để tránh việc chạy đua giành "đường tắt" mà bỏ qua các tiêu chuẩn an toàn
VỀ CÁC GIÁ TRỊ VÀ ĐẠO ĐỨC
6. An toàn - Các hệ thống AI cần phải ổn định và an toàn trong suốt vòng đời của chúng khi đi vào hoạt động, và phải luôn có thể thẩm tra lại được mỗi khi cần tới.
7. Trung thực về các thất bại - Nếu một hệ thống AI gây ra các nguy hiểm, thì nguyên nhân của sự việc phải luôn được biết rõ.
8. Trung thực trong phán xét - Các quyết định có tính pháp lý trong các sự việc có liên quan tới một hệ thống tự động hoá cần mang đến một lời giải thích thoả đáng và được ban hành bởi một cơ quan có thẩm quyền thuộc con người.
9. Trách nhiệm - Những nhà thiết kế hoặc xây dựng các hệ thống AI là những người chịu trách nhiệm chính trong các vấn đề đạo đức liên quan tới cách dùng (và lạm dụng) và hành vi khác của họ. Họ phải có trách nhiệm cũng như cơ hội để sửa sai các vấn đề trên.
10. Tôn chỉ về giá trị - Các hệ thống AI tự động cao cấp cần được thiết kế sao cho mục tiêu và hành vi của chúng phải chắc chắn liên kết với các giá trị nhân bản trong suốt quá trình hoạt động của mình.
11. Giá trị nhân bản - Các hệ thống AI cần được thiết kế và hoạt động sao cho phù hợp với các lý tưởng về phẩm cách, quyền hạn, sự tự do và đa dạng văn hoá của con người.
12. Đời tư cá nhân - Mọi người phải có quyền truy cập, quản lý và điều khiển các dữ liệu mà họ tạo ra, cấp/không cấp quyền cho các hệ thống AI phân tích và khai thác các dữ liệu đó.
13. Đời tư và sự tự do - Ứng dụng của AI đối với dữ liệu cá nhân không được phép tước bỏ sự tự do dựa trên thực tế hoặc dựa trên nhận thức của con người mà không có lý do chính đáng.
14. Các lợi ích chung - Các công nghệ AI nên mang lại lợi ích cho nhiều người nhất có thể.
15. Sự thịnh vượng chung - Sự thịnh vượng kinh tế được tạo ra bởi AI nên được chia sẻ rộng rãi, nhằm mang lại lợi ích cho tất cả nhân loại.
16. Quyền điều khiển từ con người - Con người nên được chọn cách thức và thời điểm để phó thác (cho hoặc không) các quyết định cho AI, nhằm đạt được các mục tiêu của con người.
17. Không được lật đổ - Sức mạnh mà các hệ thống AI cao cấp được con người trao cho phải luôn tôn trọng và cải thiện, chứ không được lật đổ các hệ thống xã hội dân sự mà nền tảng của xã hội dựa vào đấy.
18. Chạy đua vũ trang AI - Phải luôn tránh các cuộc chạy đua vũ trang để tạo ra các hệ thống tự động giết người.
CÁC VẤN ĐỀ DÀI HẠN
19. Thận trọng về năng lực - Hiện chưa đạt được sự đồng thuận chung, chúng ta nên tránh các giả định liên quan đến việc giới hạn năng lực "trên" của AI
20. Tầm quan trọng - Một hệ thống AI tiến bộ có thể là sự thay đổi cách mạng cho lịch sử sự sống trên Trái Đất, và cần được lên kế hoạch cũng như quản lý với sự cẩn thận cùng các nguồn tài nguyên tương xứng.
21. Các rủi ro - Các rủi ro tiềm tàng bởi AI, đặc biệt là các loại thảm hoạ hoặc tồn vong, buộc phải là chủ thể cho các nỗ lực lên kế hoạch và giảm thiểu nguy cơ, dĩ nhiên phải tương xứng với tầm ảnh hưởng dự kiến của chúng.
22. Khả năng tự cải thiện ngược - Các hệ thống AI được thiết kế để có thể tự-cải-thiện hoặc tự-nhân-bản theo một ý nghĩa có thể dẫn tới sự tăng trưởng nhanh chóng về chất lượng hoặc số lượng phải là chủ thể cho phép điều khiển và an toàn nghiêm ngặt.
23. Điều tốt đẹp chung - Siêu-trí-thông-minh chỉ nên được phát triển để phục vụ những ý tưởng đạo đức được chia sẻ chung trên toàn cầu, và vì những lợi ích cho mọi người trên hành tinh hơn là chỉ cho một quốc gia hoặc tổ chức.
Song bạn đọc cần chú ý, những nguyên tắc trên hiện chỉ là - nguyên tắc. Tại thời điểm này, hiện chưa có chính thể nào có đủ năng lực sức mạnh pháp lý để thi hành những quy định được soạn ra trên. Tuy vậy, đây là những nguyên tắc có thể trở thành bộ khung hoặc xuất phát điểm cho các bộ luật hoặc quy tắc ứng xử liên quan đến sự phát triển của AI trong tương lai.
FOL tâm niệm: "Chúng tôi hy vọng những nguyên tắc này sẽ là nguồn cung cấp tài liệu cho các buổi thảo luận sôi nổi về sau cũng như là các mục tiêu có tính khích lệ cho việc sử dụng sức mạnh AI nhằm cải thiện đời sống con người trong nhiều năm tới".
Theo Rappler, những bộ phim giả tưởng như Terminator, Eagle Eye, Ex Machina... đã phác hoạ cho chúng ta phần nào về các mối đe doạ mà AI có thể mang lại cho con người. Ở phía ngược lại, cũng không thiếu các bộ phim có thể "lấy nước mắt người xem" như Chappie hay Big Hero 6 khi cho thấy - AI có thể còn "nhân văn" hơn cả con người, nếu được phát triển đúng. Tất nhiên, các bộ phim trên chỉ là sự tưởng tượng của các đạo diễn Hollywood. Nhưng chúng cho thấy AI thực sự là một "ổ trứng" và có nhiều "gà con" sẽ ra đời.
Thời gian gần đây, một chương trình AI có tên Libratus đã đánh bại cả 4 người chơi poker chuyên nghiệp. Kết quả đó được chính người viết Libratus đánh giá là "một bước ngoặt quan trọng". Vì poker đó luôn được xem là một thách thức dành cho AI, tính tới lúc Libratus xuất hiện. Rồi về sau, các AI khác lần lượt đánh bại các kỳ thủ cờ vua và cờ vây chuyên nghiệp hàng đầu thế giới. Những hiện tượng này cho thấy AI từ chỗ có trí khôn "hạn hẹp" đã bắt đầu tăng tốc và cơ bản đã "đuổi kịp" con người ở một số lĩnh vực. Xét về tương lai xa hơn, ngày mà AI có thể khôn "như con người" trên mọi mặt và thậm chí là vượt qua, sẽ không còn là phim viễn tưởng.
Vậy đâu là "trứng lành" và đâu là "trứng bệnh"? Làm sao để lứa "gà con" sinh ra sẽ tạo ra được nhiều lợi ích nhất cho con người chứ không phải là điều đáng sợ nhất của nhân loại? Từng khối óc đơn lẻ suy nghĩ có lẽ không hiệu quả bằng nhiều bộ não cùng họp lại và cùng bàn luận. Vì vậy mà một hội thảo có tên Beneficial AI (AI có lợi) vừa được tổ chức vào tháng Giêng vừa qua tại California (Mỹ) đã ghi nhận ý kiến của rất nhiều người (cả chuyên môn AI lẫn không chuyên) nhằm tìm ra một bộ nguyên tắc "ứng xử chung" dành cho AI.
Beneficial AI được tổ chức bởi Học viện Cuộc sống Tương lai (Future of Life - FOL). Đây là một tổ chức phi lợi nhuận được thành lập bởi nhà thiên văn học Max Tegmark thuộc ĐH MIT, đồng sáng lập Skype Jaan Tallinn và nhà nghiên cứu DeepMind Viktoriya Krakovna từ tháng 3/2014.
Trên trang chủ của mình, FOL mô tả quá trình thành lập các nguyên tắc cho AI như sau: "Chúng tôi tập hợp mọi báo cáo mà chúng tôi có thể và biên soạn thành một danh sách các ý kiến dựa trên điểm số về việc xã hội nên làm gì để quản lý AI một cách tốt nhất trong nhiều thập kỷ tới. Từ danh sách này, chúng tôi tìm ra những điểm trùng lặp rồi đơn giản hoá chúng, cũng như cố gắng chắt lọc ra càng nhiều càng tốt những thứ chúng ta có thể đem lập thành một bộ nguyên tắc nền tảng, vốn có thể đạt tới một mức độ đồng thuận chung nhất".
Sau cùng, một bộ nguyên tắc chung đã được thành lập có tên gọi "23 Nguyên tắc AI Asilomar" (Asilomar là nơi hội thảo diễn ra, nằm tại California) nếu nó đạt được sự đồng thuận của trên 90% những người tham gia hội thảo. Theo Gizmodo, từ lúc được lập ra, bộ nguyên tắc này đã được gần 2300 người ủng hộ, gồm cả 880 các nhà robot học và nhà nghiên cứu AI. Các thành viên thuộc hội đồng tham vấn của FOL, gồm cả nhà vật lý Stephen Hawking lẫn CEO công nghệ Elon Musk, cũng đã "gật đầu" với các nguyên tắc trên.
Chi tiết các nguyên tắc, do trang Rappler tổng hợp:
VỀ LĨNH VỰC NGHIÊN CỨU
1. Mục đích nghiên cứu - Mục đích nghiên cứu AI không chỉ là tạo ra trí thông minh không có định hướng, mà là trí thông minh có ích.
2. Quỹ hỗ trợ nghiên cứu - Các khoản đầu tư vào AI nên được đồng hành với các quỹ nghiên cứu (AI) nhằm đảm bảo chúng được dùng theo hướng có ích, bao gồm các những câu hỏi "gai góc" liên quan đến khoa học máy tính, kinh tế, luật, đạo đức, xã hội nhân văn... Đại loại như:
- Chúng ta làm thế nào để các hệ thống AI tương lai có thể đạt hiệu suất cao, để chúng có thể làm làm được điều chúng ta muốn mà không bị lỗi hoặc bị hack?
- Chúng ta làm thế nào để mở rộng sự thịnh vượng nhờ các quy trình tự động hoá trong khi vẫn bảo tồn được các tài nguyên và mục đích của nhân loại?
- AI cần tuân thủ theo những tập giá trị nào, và chúng cần có các quy chuẩn pháp lý lẫn đạo đức gì?
3. Liên kết chính sách - khoa học - Cần có sự trao đổi mang tính xây dựng và lành mạnh giữa các nhà nghiên cứu AI lẫn nhà làm luật.
4. Văn hoá nghiên cứu - Cần có một nền văn hoá dựa trên sự hợp tác, niềm tin và trung thực giữa các nhà nghiên cứu và nhà phát triển AI.
5. Không cần đua đòi - Các nhóm phát triển AI cần chủ động hợp tác lẫn nhau để tránh việc chạy đua giành "đường tắt" mà bỏ qua các tiêu chuẩn an toàn
VỀ CÁC GIÁ TRỊ VÀ ĐẠO ĐỨC
6. An toàn - Các hệ thống AI cần phải ổn định và an toàn trong suốt vòng đời của chúng khi đi vào hoạt động, và phải luôn có thể thẩm tra lại được mỗi khi cần tới.
7. Trung thực về các thất bại - Nếu một hệ thống AI gây ra các nguy hiểm, thì nguyên nhân của sự việc phải luôn được biết rõ.
8. Trung thực trong phán xét - Các quyết định có tính pháp lý trong các sự việc có liên quan tới một hệ thống tự động hoá cần mang đến một lời giải thích thoả đáng và được ban hành bởi một cơ quan có thẩm quyền thuộc con người.
9. Trách nhiệm - Những nhà thiết kế hoặc xây dựng các hệ thống AI là những người chịu trách nhiệm chính trong các vấn đề đạo đức liên quan tới cách dùng (và lạm dụng) và hành vi khác của họ. Họ phải có trách nhiệm cũng như cơ hội để sửa sai các vấn đề trên.
10. Tôn chỉ về giá trị - Các hệ thống AI tự động cao cấp cần được thiết kế sao cho mục tiêu và hành vi của chúng phải chắc chắn liên kết với các giá trị nhân bản trong suốt quá trình hoạt động của mình.
11. Giá trị nhân bản - Các hệ thống AI cần được thiết kế và hoạt động sao cho phù hợp với các lý tưởng về phẩm cách, quyền hạn, sự tự do và đa dạng văn hoá của con người.
12. Đời tư cá nhân - Mọi người phải có quyền truy cập, quản lý và điều khiển các dữ liệu mà họ tạo ra, cấp/không cấp quyền cho các hệ thống AI phân tích và khai thác các dữ liệu đó.
13. Đời tư và sự tự do - Ứng dụng của AI đối với dữ liệu cá nhân không được phép tước bỏ sự tự do dựa trên thực tế hoặc dựa trên nhận thức của con người mà không có lý do chính đáng.
14. Các lợi ích chung - Các công nghệ AI nên mang lại lợi ích cho nhiều người nhất có thể.
15. Sự thịnh vượng chung - Sự thịnh vượng kinh tế được tạo ra bởi AI nên được chia sẻ rộng rãi, nhằm mang lại lợi ích cho tất cả nhân loại.
16. Quyền điều khiển từ con người - Con người nên được chọn cách thức và thời điểm để phó thác (cho hoặc không) các quyết định cho AI, nhằm đạt được các mục tiêu của con người.
17. Không được lật đổ - Sức mạnh mà các hệ thống AI cao cấp được con người trao cho phải luôn tôn trọng và cải thiện, chứ không được lật đổ các hệ thống xã hội dân sự mà nền tảng của xã hội dựa vào đấy.
18. Chạy đua vũ trang AI - Phải luôn tránh các cuộc chạy đua vũ trang để tạo ra các hệ thống tự động giết người.
CÁC VẤN ĐỀ DÀI HẠN
19. Thận trọng về năng lực - Hiện chưa đạt được sự đồng thuận chung, chúng ta nên tránh các giả định liên quan đến việc giới hạn năng lực "trên" của AI
20. Tầm quan trọng - Một hệ thống AI tiến bộ có thể là sự thay đổi cách mạng cho lịch sử sự sống trên Trái Đất, và cần được lên kế hoạch cũng như quản lý với sự cẩn thận cùng các nguồn tài nguyên tương xứng.
21. Các rủi ro - Các rủi ro tiềm tàng bởi AI, đặc biệt là các loại thảm hoạ hoặc tồn vong, buộc phải là chủ thể cho các nỗ lực lên kế hoạch và giảm thiểu nguy cơ, dĩ nhiên phải tương xứng với tầm ảnh hưởng dự kiến của chúng.
22. Khả năng tự cải thiện ngược - Các hệ thống AI được thiết kế để có thể tự-cải-thiện hoặc tự-nhân-bản theo một ý nghĩa có thể dẫn tới sự tăng trưởng nhanh chóng về chất lượng hoặc số lượng phải là chủ thể cho phép điều khiển và an toàn nghiêm ngặt.
23. Điều tốt đẹp chung - Siêu-trí-thông-minh chỉ nên được phát triển để phục vụ những ý tưởng đạo đức được chia sẻ chung trên toàn cầu, và vì những lợi ích cho mọi người trên hành tinh hơn là chỉ cho một quốc gia hoặc tổ chức.
Song bạn đọc cần chú ý, những nguyên tắc trên hiện chỉ là - nguyên tắc. Tại thời điểm này, hiện chưa có chính thể nào có đủ năng lực sức mạnh pháp lý để thi hành những quy định được soạn ra trên. Tuy vậy, đây là những nguyên tắc có thể trở thành bộ khung hoặc xuất phát điểm cho các bộ luật hoặc quy tắc ứng xử liên quan đến sự phát triển của AI trong tương lai.
FOL tâm niệm: "Chúng tôi hy vọng những nguyên tắc này sẽ là nguồn cung cấp tài liệu cho các buổi thảo luận sôi nổi về sau cũng như là các mục tiêu có tính khích lệ cho việc sử dụng sức mạnh AI nhằm cải thiện đời sống con người trong nhiều năm tới".
Nguồn: Vnreview