9 nguyên tắc nghiên cứu, phát triển hệ thống trí tuệ nhân tạo có trách nhiệm

PV Xamer

Big Daddy
⚔VIP⚔
Bài viết
122,685
Xu
326
Cơ quan, tổ chức khoa học và công nghệ, tổ chức, doanh nghiệp, cá nhân có hoạt động nghiên cứu, thiết kế, phát triển, cung cấp các hệ thống trí tuệ nhân tạo được khuyến khích áp dụng các nội dung trong tài liệu hướng dẫn.

Theo đó, 9 nguyên tắc nghiên cứu, phát triển hệ thống AI có trách nhiệm được đề ra gồm: Tinh thần hợp tác, thúc đẩy đổi mới sáng tạo; tính minh bạch; khả năng kiểm soát; an toàn; bảo mật; quyền riêng tư; tôn trọng quyền và phẩm giá con người; hỗ trợ người dùng; trách nhiệm giải trình.


Với mỗi nguyên tắc đều có hướng dẫn thực hiện. Đơn cử như đối với tính minh bạch, nhà phát triển cần chú ý đến việc kiểm soát đầu vào/đầu ra của hệ thống AI và khả năng giải thích các phân tích có liên quan. Theo đó, các hệ thống AI tuân theo nguyên tắc này thường là các hệ thống có thể ảnh hưởng đến tính mạng, thân thể, quyền riêng tư hoặc tài sản của người dùng hoặc bên thứ ba liên quan.


 
Khi đó, các nhà phát triển cần chú ý đến khả năng xác định rõ các đầu vào và đầu ra của hệ thống AI cũng như khả năng giải thích liên quan dựa trên các đặc điểm của công nghệ được áp dụng và cách sử dụng chúng để đảm bảo có sự tin tưởng của xã hội, bao gồm cả người dùng.


Hay đối với nguyên tắc tôn trọng quyền và phẩm giá con người, khi phát triển các hệ thống AI có liên quan tới con người, các nhà phát triển phải đặc biệt quan tâm đến việc tôn trọng quyền và phẩm giá con người của các cá nhân liên quan.


Trong phạm vi có thể, tùy theo đặc điểm của công nghệ được áp dụng, các nhà phát triển cần thực hiện các biện pháp để đảm bảo không gây ra sự phân biệt đối xử, không công bằng do thiên vị (định kiến) trong dữ liệu khi huấn luyện hệ thống AI.


Các nhà phát triển cần thực hiện các biện pháp phòng ngừa để đảm bảo rằng hệ thống AI không vi phạm các giá trị của con người, đạo đức xã hội theo các nguyên tắc cơ bản của Việt Nam (ví dụ, các giá trị bao gồm yêu nước, đoàn kết, tự cường, nghĩa tình, trung thực, trách nhiệm, kỷ cương, sáng tạo…).


Theo Bộ KH&CN, trong bối cảnh hiện nay, việc nghiên cứu, có biện pháp giảm thiểu các rủi ro trong quá trình phát triển, sử dụng AI và cân đối các yếu tố kinh tế, đạo đức và pháp lý liên quan là rất cần thiết.


Vì vậy, các cơ quan chuyên môn cần nghiên cứu, xây dựng các tiêu chuẩn, hướng dẫn để định hướng kể cả đó là các quy định mềm và không có tính ràng buộc.


Bên cạnh đó, việc chia sẻ, trao đổi thông tin về các quy trình, các biện pháp thực hành tốt giữa các bên liên quan (như nhà phát triển, nhà cung cấp dịch vụ, người dùng) cũng sẽ thúc đẩy sự đồng thuận để gia tăng lợi ích từ các hệ thống AI và kiểm soát được các rủi ro.


Bộ KH&CN đã chủ động nghiên cứu kinh nghiệm các nước, khuyến nghị của các tổ chức như: UNESCO, UN, ASEAN, G7, G20... để xây dựng các khuyến nghị, công cụ, quy định về đạo đức trong AI, phát triển các sản phẩm AI (từ nghiên cứu, thiết kế, phát triển, triển khai sản phẩm AI) có trách nhiệm phù hợp với thực tiễn và quy định hiện hành của Việt Nam.


Bộ KH&CN cũng cho biết, các nguyên tắc, hướng dẫn sẽ tiếp tục được nghiên cứu, cập nhật để phù hợp với tình hình thực tiễn.


THU HIỀN


*Mời bạn đọc vào chuyên mục Giáo dục Khoa học xem các tin, bài liên quan.

Xem tiếp...
 

Chủ đề tương tự

Back
Top Bottom