Phần 3: Xác định các rủi ro của AI | Sẵn sàng cho Trí tuệ Nhân tạo: Điều Lãnh đạo CNTT CIO Cần Biết và Làm

Phần 3: Xác định các rủi ro của AI | Sẵn sàng cho Trí tuệ Nhân tạo: Điều Lãnh đạo CNTT CIO Cần Biết và Làm

: Views

 


Các định mức độ chấp nhận rủi ro AI của từng phòng ban chức năng hoặc đơn vị kinh doanh 

Để hoàn tất việc xác định các cơ hội AI (trí tuệ nhân tạo) mà tổ chức sẽ theo đuổi, các lãnh đạo kinh doanh cần nêu rõ mức độ rủi ro họ sẵn sàng chấp nhận rủi ro liên quan đến các vấn đề như độ tin cậy (reliability), quyền riêng tư (privacy), khả năng giải thích (explainability) và an ninh bảo mật (security) của AI.

Để dễ hình dung, bạn có thể kẻ một hình hai trục ngang dọc như bên dưới. Trục ngang là mức độ dễ giải thích đi từ hoàn toàn dễ giải thích (explainable AI) tới AI như một hộp đen (black box AI). Còn trục dọc đi chuyển dần từ con người sang AI, đi từ mức độ con người tham gia AI hỗ trợ (AI augment/ Human in the loop) lên tới AI tự động hoá hoàn toàn (AI automates), và đoạn giữa là AI làm, con người quan sát và kiểm định (AI does, human oversees). Từ bảng này ta sẽ có được 4 góc độ quan trọng: 1. Các cược an toàn (Safest Bet), 2. Tự động hoá chịu trách nhiệm hoàn toàn (Responsible Automation), 3. Sức mạnh Hỗ trợ (Verified Power), và 4. Hoàn toàn rủi ro/ Tốc độ cao (full risk/ speed ahead). 

Độ tin cậy của AI 

Tùy vào cách đào tạo, tất cả AI đều có thể "dễ bị tổn thương" hay không đáng tin cậy ở mức độ nào đó bởi: 

  • Thiếu chính xác về sự kiện, hoặc đầu ra có phần nào đúng nhưng sai ở những chi tiết quan trọng. 
  • Ảo tưởng, hoặc đầu ra bị bịa đặt. 
  • Thông tin lỗi thời, do dữ liệu đào tạo có điểm ngừng/ điểm cắt (cutoffs) về kiến thức. 
  • Thông tin thiên vị trong dữ liệu đào tạo, dẫn đến đầu ra thiên vị. 

Quyền riêng tư của AI 

Các vấn đề về quyền riêng tư biến đổi từ lo ngại về chi tiết có thể nhận dạng trong dữ liệu đào tạo đến việc chia sẻ dữ liệu hoặc đầu ra, bao gồm: 

  • Chia sẻ thông tin người dùng với bên thứ ba mà không thông báo trước, bao gồm thông tin nhà cung cấp sản phẩm hay dịch vụ, đơn vị liên kết và các người dùng khác. 
  • Xử lý dữ liệu có thể nhận dạng. 
  • Đào tạo bằng dữ liệu có thể nhận dạng có thể gây ảnh hưởng trong thực tế khi đi vào triển khai. 
  • Dữ liệu nhạy cảm hoặc cá nhân bị rò rỉ ngoài ý muốn. 
  • Thông tin sở hữu, nhạy cảm hoặc bảo mật được nhập dưới dạng câu lệnh (prompt) hoặc để truy xuất dữ liệu có thể trở thành một phần của cơ sở kiến thức được sử dụng trong đầu ra cho người dùng khác. 

Khả năng giải thích của AI (AI explainability)

Các Mô hình Học máy (ML, viết tắt của Machine Learning) không minh bạch với người dùng và đôi khi ngay cả với các chuyên gia giỏi. Mặc dù các nhà khoa học dữ liệu và nhà phát triển mô hình hiểu những gì các mô hình ML của họ đang cố gắng làm, nhưng họ không thể giải mã cấu trúc bên trong hoặc cách thức thuật toán để các mô hình xử lý dữ liệu. Sự thiếu khả năng hiểu (understandability) và do đó giải thích được mô hình (explainability) - điều Gartner định nghĩa là các khả năng làm rõ cách thức hoạt động của một mô hình - giới hạn khả năng của tổ chức trong việc quản lý rủi ro AI. Việc thiếu khả năng giải thích khiến đầu ra của mô hình trở nên: 

  • Không thể đoán trước (unpredictable).
  • Không thể xác minh (unverifiable). 
  • Không thể giải trình (unaccountable). 
  • An ninh AI (AI security) 

    AI có thể trở thành mục tiêu mới cho các đối tượng có ý đồ xấu để truy cập dữ liệu cá nhân hoặc chèn mã hay các tham số đào tạo khiến AI hành động phục vụ lợi ích của đối tượng xấu. Ví dụ: 

    • Thông tin cá nhân hoặc nhạy cảm được lưu trữ bởi một mô hình AI bị tin tặc truy cập. 
    • Tin tặc sử dụng câu lệnh (prompt) để thao túng một mô hình ngôn ngữ lớn (LLM) để tiết lộ thông tin không nên đưa. 
    • Các mô hình ngôn ngữ lớn (LLM) bị lừa/ lạm dụng để viết mã phần mềm gây hại hoặc mã tống tiền. 
  • Phối hợp với lãnh đạo cấp cao để xác định mức độ rủi ro có thể chấp nhận được cho tổ chức của bạn 

    Để cân bằng giữa rủi ro của AI với các cơ hội tổ chức muốn theo đuổi, các Giám đốc Công nghệ Thông tin cần giúp xác định vai trò tương đối của con người và AI. Mục tiêu là đạt được cân bằng giữa mức độ tự động hóa (từ hoàn toàn tự động đến "có con người tham gia") và mức độ khả năng giải thích (từ AI "hộp đen" hoàn toàn không minh bạch đến hoàn toàn có thể giải thích). 

    Mỗi lãnh đạo cấp cao (CxO) cần công bố các mức độ rủi ro AI có thể chấp nhận được cho các quy trình chính trong bộ phận của họ và đảm bảo chúng phù hợp với các cơ hội AI họ muốn theo đuổi. Ví dụ, lãnh đạo bộ phận Nhân sự (HR Head) có thể có mức độ chấp nhận rủi ro trong nhóm 1 "Các cược an toàn" (Safest bet), bởi bản chất nhạy cảm trong công việc của họ, trong khi giám đốc dịch vụ khách hàng (Customer services) có thể tham vọng cho việc tự động hoá hoàn toàn (responsible automation) cho phép việc tự động hoá và có giải thích với khách hàng, nếu được yêu cầu.



Tin liên quan

    Công nghệ AI

    Chuyển đổi số

    Cán bộ số

    QUẢNG CÁO WEBSITE
    Gái xinh 1 Tieu de 2 Tieu de 4
    Tieu de 4
    Tieu de 4
    Tieu de 5

    QC Multiplex

    Liên hệ G-mail: thuphuochuu@gmail.com


    Powered by All Rights Reserved