Chỉ giải thích là không đủ

Một phần của tài liệu EXPLAINABLE ARTIFICIAL INTELLIGENCE (Trang 28 - 29)

Mặc dù khả năng giải thích là cần thiết để đạt được sự tin tưởng vào các mô hình AI, nhưng nó không chắc là đủ. Đơn giản chỉ cần hiểu rõ hơn về cách một mô hình AI thiên vị đạt được kết quả sẽ giúp đạt được sự tin tưởng rất ít. Khi học sinh ở Anh gần đây biết rằng họ đã được ấn định điểm kiểm tra tiêu chuẩn dựa trên một thuật toán đơn giản đã quy định

pg. 29 trọng số cho thành tích lịch sử của các trường và do đó, các trường giàu có lợi thế, họ đã bị phẫn nộ, làm dấy lên các cuộc biểu tình ở các thành phố trên khắp đất nước. Khả năng giải thích sẽ chỉ dẫn đến sự tin tưởng cùng với các biện pháp kiểm tra, đánh giá và trách nhiệm giải trình, đây là bước bổ sung để không chỉ phát hiện ra mà còn giảm thiểu các vấn đề đã lộ ra. Và trong khi các kỹ thuật có thể giải thích sẽ làm nổi bật các yếu tố về cách hoạt động của một mô hình, người dùng không nên mong đợi xác định xem quy trình đó có đủ hay không hoặc buộc phải thay đổi khi chưa. Tiền lệ được đặt ra bởi vụ Loomis kiện Wisconsin năm 2017, trong đó việc thiếu khả năng giải thích và khả năng thành kiến chủng tộc trong thuật toán đánh giá rủi ro tội phạm không được coi là vi phạm quy trình tố tụng, nhấn mạnh lỗ hổng trong trách nhiệm giải trình. Kiểm toán độc lập và các chế độ trách nhiệm pháp lý được cập nhật, cùng với các biện pháp trách nhiệm giải trình khác, cũng sẽ cần thiết để thúc đẩy sự tin tưởng lâu dài.

Một phần của tài liệu EXPLAINABLE ARTIFICIAL INTELLIGENCE (Trang 28 - 29)

Tải bản đầy đủ (PDF)

(34 trang)