‘AI đạo đức’ là gì và làm thế nào các công ty có thể đạt được nó?

‘A.I. ĐẠO ĐỨC’ LÀ GÌ VÀ LÀM THẾ NÀO CÁC CÔNG TY CÓ THỂ ĐẠT ĐƯỢC NÓ?

Trong trường hợp không có hướng dẫn pháp lý, các công ty cần thiết lập các quy trình nội bộ để sử dụng AI có trách nhiệm. Oscar Wong/Getty Images

Việc gấp rút triển khai các công nghệ AI thế hệ mới mạnh mẽ, chẳng hạn như ChatGPT, đã gióng lên hồi chuông cảnh báo về khả năng gây hại và lạm dụng. Phản ứng lạnh nhạt của luật pháp đối với các mối đe dọa như vậy đã đặt ra những yêu cầu rằng các công ty phát triển các công nghệ này cần triển khai AI “một cách có đạo đức”.

Nhưng chính xác thì điều đó nghĩa là sao?

Câu trả lời đơn giản là điều chỉnh các hoạt động của doanh nghiệp với một hoặc nhiều trong số hàng chục bộ nguyên tắc đạo đức AI mà chính phủ, các nhóm nhiều bên liên quan và các học giả đã đưa ra. Nhưng nói thì dễ hơn làm.

Chúng tôi và các đồng nghiệp của mình đã dành hai năm để phỏng vấn và khảo sát các chuyên gia về đạo đức AI trong nhiều lĩnh vực khác nhau để cố gắng hiểu xem họ cố tìm cách đạt được AI có đạo đức bằng cách nào – và họ có thể bỏ sót gì. Chúng tôi đã học được rằng việc theo đuổi đạo đức AI trên thực tế không phải là áp các nguyên tắc đạo đức vào các hành động của công ty mà là triển khai các cấu trúc và quy trình quản lý cho phép một tổ chức phát hiện và giảm thiểu các mối đe dọa.

Đây có thể là một tin đáng thất vọng đối với các tổ chức đang tìm kiếm hướng dẫn rõ ràng để tránh các vùng xám, và đối với người tiêu dùng đang hy vọng về các tiêu chuẩn rõ ràng và có tính bảo vệ. Nhưng nó chỉ ra sự hiểu biết tốt hơn về cách các công ty có thể theo đuổi AI có đạo đức.

Tiếp tục đọc