Những rủi ro của việc ứng dụng AI và các phương pháp phòng tránh, giảm thiểu rủi ro

07/03/2025 - 04:12
(Bankviet.com) Để giảm thiểu rủi ro do kết quả sai lệch của AI đem lại, người dùng cần đánh giá đầu ra của AI một cách nghiêm túc, cẩn trọng và đa dạng hóa các nguồn thông tin.

Lộ lọt thông tin

Amazon từng gửi cảnh báo tới nhân viên của mình về việc chia sẻ thông tin của công ty với ChatGPT. Họ "đã thấy các trường hợp" văn bản được tạo ra bởi ChatGPT "gần giống" với dữ liệu nội bộ của công ty. Chatbot đã có thể trả lời chính xác các câu hỏi phỏng vấn từ Amazon. Nó đã có thể cung cấp câu trả lời cho một số câu hỏi độc quyền mà chỉ nhóm tuyển dụng của công ty được biết. Tương tự, khi nhân viên của Microsoft hỏi trong một diễn đàn nội bộ rằng liệu ChatGPT hay bất kỳ công cụ AI nào khác từ OpenAI có phù hợp để sử dụng trong công việc của họ không, một kỹ sư cao cấp của văn phòng CTO của công ty này cho biết có sử dụng ChatGPT nhưng không cho phép chia sẻ thông tin bí mật với AI chatbot.

Giả sử ChatGPT (hay một dịch vụ AI nào khác) có phương thức nào đó để đảm bảo dữ liệu thu thập từ người dùng của một công ty không bị sử dụng để phục vụ người dùng bên ngoài, thì cũng còn rất nhiều vấn đề cần xem xét để bảo vệ dữ liệu nội bộ. Có thể thấy ít nhất có những vấn đề sau:

Một là, bảo mật dữ liệu. Dữ liệu được xử lý một cách an toàn như thế nào trong các máy chủ của ChatGPT? Các thuật toán mã hóa nào được sử dụng để lưu trữ nó một cách an toàn? Các máy chủ có được bảo vệ chống lại truy cập trái phép, rò rỉ dữ liệu tình cờ, ransomware, mối đe dọa nội bộ, lạm dụng dữ liệu,... Nó có sử dụng các biện pháp kiểm soát an ninh phù hợp? Tin tặc có thể tìm thấy dữ liệu bằng cách khai thác một số lỗ hổng phần mềm hoặc phần cứng không?

Hai là, quá trình xác thực của các ứng dụng AI tạo sinh phổ biến không đủ mạnh. ChatGPT không thực hiện xác thực đa yếu tố, vì vậy, các tác nhân độc hại có thể xâm phạm tài khoản người dùng và dữ liệu của họ thông qua thông tin đăng nhập bị lộ hoặc một số lỗ hổng khác trong các cơ chế xác thực.

Ba là, rủi ro từ ứng dụng của bên thứ ba. Vì ChatGPT (hoặc ứng dụng AI tạo sinh khác) có thể không được hỗ trợ ở một số quốc gia, một số người đang sử dụng các ứng dụng của bên thứ ba hoặc các bot Telegram để truy cập các tính năng hạn chế. Các ứng dụng này có thể tạo cửa hậu cho tin tặc, chia sẻ dữ liệu của bạn với các bên khác hoặc làm sai lệch thông tin được người dùng cuối nhận được. Ngoài ra, các ứng dụng như vậy còn mở cho tất cả các rủi ro được đề cập ở trên ngay cả khi chính ChatGPT siêu an toàn. Hơn nữa, ChatGPT cũng có thể bị lợi dụng như một kênh để tuồn dữ liệu từ các máy chủ bị xâm phạm ra ngoài, bằng cách gửi dữ liệu đến ChatGPT bằng API.

Khi chưa thể triển khai các giải pháp AI nội bộ, cần áp dụng kết hợp các biện pháp khác nhau để giảm thiểu rủi ro lộ lọt dữ liệu, trước hết là kiểm soát truy cập. Bản chất của vấn đề lộ dữ liệu do AI là vấn đề kiểm soát truy cập dữ liệu. Cần kiểm soát chặt chẽ những người có thể truy cập dữ liệu và dịch vụ AI đồng thời triển khai các biện pháp xác thực mạnh.

Bên cạnh đó, cần đào tạo toàn thể cán bộ nhân viên về cách xử lý dữ liệu an toàn và đảm bảo rằng họ hiểu về các rủi ro tiềm tàng, các chiến lược giảm thiểu rủi ro liên quan đến lộ lọt dữ liệu do sử dụng AI. Người dùng không nên đưa các thông tin nội bộ, thông tin cá nhân (của bản thân và của khách hàng), thông tin mật lên các hệ thống AI ngoài phạm vi đơn vị.

Vi phạm quyền sở hữu trí tuệ

Năm 2022, Matthew Butterick đệ đơn kiện GitHub Copilot vì vi phạm giấy phép nguồn mở. Butterick tuyên bố rằng, GitHub đưa ra các đề xuất về mã lệnh dựa trên tài sản trí tuệ của người khác, trong khi không ghi nhận đóng góp hoặc bồi thường cho họ. Trong khi đó, Microsoft chỉ đơn giản đặt gánh nặng của việc kiểm tra sở hữu trí tuệ của mã nguồn được gợi ý trước khi sử dụng lên vai người dùng cuối.

Vì vậy khi sử dụng các dịch vụ AI, cần đặc biệt lưu ý vấn đề quyền sở hữu trí tuệ. Chỉ sử dụng sản phẩm do AI tạo ra nếu công ty cung ứng dịch vụ chịu trách nhiệm về quyền sở hữu trí tuệ (ví dụ, có thể sử dụng hình ảnh do Adobe FireFly tạo ra cho các hoạt động thương mại trong khi không thể dùng các hình ảnh do Bing Image Creator tạo ra). Trong trường hợp ngược lại, chỉ nên sử dụng sản phẩm do AI tạo ra làm tài liệu tham khảo.

AI có thể cung cấp kết quả sai lệch

AI có thể cung cấp kết quả sai lệch vì nhiều lý do khác nhau. Lý do thứ nhất xuất phát từ nguồn dữ liệu đào tạo. Các mô hình AI tạo sinh được đào tạo trên lượng lớn dữ liệu internet. Dữ liệu này, mặc dù giàu thông tin, nhưng lại chứa cả nội dung chính xác và không chính xác, cũng như các thành kiến ​​xã hội và văn hóa. Vì các mô hình này mô phỏng các mẫu trong dữ liệu đào tạo của chúng mà không phân biệt được sự thật, nên chúng có thể tái tạo bất kỳ thông tin sai lệch hoặc thành kiến ​​nào có trong dữ liệu đó (ví dụ, từ dữ liệu nhân sự, AI có thể đưa ra kết luận những người chơi gôn là những người có khả năng thành công cao).

Lý do thứ hai bắt nguồn từ chính hạn chế của các mô hình tạo sinh. Các mô hình AI tạo sinh hoạt động giống như các công cụ tự động điền từ nâng cao, chúng được thiết kế để dự đoán từ hoặc chuỗi tiếp theo dựa trên các mẫu đã quan sát. Mục tiêu của chúng là tạo ra nội dung hợp lý, không phải để xác minh tính đúng đắn của nội dung đó. Điều đó có nghĩa là bất kỳ độ chính xác nào trong kết quả đầu ra của chúng thường là ngẫu nhiên. Do đó, chúng có thể tạo ra nội dung có vẻ hợp lý nhưng lại không chính xác.

Lý do thứ ba nằm ngay trong những thách thức cố hữu của thiết kế AI tạo sinh. Công nghệ đằng sau các công cụ AI tạo sinh không được thiết kế để phân biệt giữa điều gì là đúng và điều gì là không đúng. Ngay cả khi các mô hình AI tạo sinh chỉ được đào tạo dựa trên dữ liệu chính xác, bản chất tạo sinh khiếnchúng có thể tạo ra nội dung mới, có khả năng không chính xác bằng cách kết hợp các mẫu theo những cách không ngờ tới.

Việc sử dụng thông tin sai lệch do các công cụ AI tạo sinh cung cấp sẽ dẫn đến nhiều hậu quả khác nhau. Trước hết, thông tin sai lệch có thể dẫn đến kiện tụng. Một giáo sư luật tại trường đại học George Washington đã phàn nàn về việc ChatGPT trả kết quả rằng ông đã bị buộc tội quấy rối tình dục sinh viên trong một chuyến đi tới Alaska, khi đang dạy tại trường đại học Georgetown, dựa trên một bài báo trên Washington Post năm 2018. Trong khi đó, trên thực tế giáo sư đó chưa bao giờ giảng dạy tại đại học Georgetown; chưa bao giờ dẫn sinh viên đi đâu, đặc biệt là tới Alaska; chưa bao giờ bị buộc tội quấy rối tình dục; và điều tệ hơn cả là không hề có bài báo nào như thế trên tờ Washington Post.

Ngay cả các mô hình chuyên biệt được xây dựng với mục đích giảm thiểu thông tin sai lệch cũng không hoàn hảo. Một nghiên cứu của các nhà nghiên cứu tại RegLab và Human-Centered AI (thuộc đại học Stanford) đã thử nghiệm Lexis+ AI và Westlaw AI-Assisted Research, Ask Practical Law AI (hai công cụ sau là của Thomson Reuters). Họ chỉ ra rằng, các công cụ đó thực sự làm giảm lỗi so với các mô hình AI chung như GPT-4. Nhưng ngay cả các công cụ AI pháp lý được thiết kế riêng này vẫn tạoảo giác ở mức đáng báo động: các hệ thống AI Lexis+ AI và Ask Practical Law AI tạo ra thông tin không chính xác trong hơn 17% trường hợp, trong khi AI-Assisted Research của Westlaw gây ảo giác trong hơn 34% trường hợp.

Tác hại thứ hai của việc sử dụng thông tin sai lệch do AI cung cấp là ứng xử sai theo định kiến có sẵn trong dữ liệu. Các thuật toán máy học có thể chứa đựng các định kiến có sẵn trong dữ liệu lịch sử (chẳng hạn như phụ nữ thường được trả lương thấp hơn nam giới, người da đen thường có khả năng phạm tội cao hơn người da trắng). Việc sử dụng các thuật toán máy học đó sẽ dẫn đến tình trạng phân biệt đối xử với khách hàng. Hơn thế nữa, logic của thuật toán không tường minh nên đơn vị áp dụng khó phát hiện ra những định kiến đó và không thể giải thích được lý do chấp thuận / từ chối cho từng trường hợp cụ thể (chẳng hạn như nếu đơn xin vay của khách hàng bị từ chối, họ có thể muốn hiểu lý do tại sao mình bị từ chối). Trong một số trường hợp, luật yêu cầu mức độ có thể giải thích được của các hệ thống đánh giá. Tại Mỹ, điểm tín dụng và các quyết định cấp tín dụng phải tuân theo Đạo luật Cơ hội Tín dụng Bình đẳng, buộc người cho vay phải cung cấp các lý do cụ thể dẫn đến việc từ chối người đi vay.

Những định kiến tồn tại trong các thuật toán máy học có thể dẫn đến những hậu quả xấu và điều đó không chỉ dừng lại ở việc bị khách hàng tẩy chay hay cơ quan quản lý xử phạt. Một ví dụ điển hình là hệ thống nhằm mục đích loại bỏ gian lận phúc lợi ngay từ giai đoạn đầu của Hà Lan được đưa ra vào năm 2013. Các tiêu chí cho hồ sơ rủi ro đã được cơ quan thuế xây dựng, theo đó có quốc tịch kép hay thu nhập thấp được coi là một chỉ số rủi ro lớn. Việc áp dụng các tiêu chí dựa trên thuật toán máy học đó đã khiến nhiều gia đình không được hưởng phúc lợi. Kết quả là năm 2020, Chính phủ Hà Lan buộc phải từ chức tập thể sau khi một báo cáo năm 2020 phát hiện rằng các nạn nhân "bị đối xử theo định kiến ​​của tổ chức".

Để giảm thiểu rủi ro do kết quả sai lệch của AI đem lại, người dùng cần đánh giá đầu ra của AI một cách nghiêm túc, cẩn trọng và đa dạng hóa các nguồn thông tin.

Không giống như con người, các hệ thống AI không có khả năng suy nghĩ hoặc hình thành niềm tin. Chúng hoạt động theo thuật toán dựa trên dữ liệu đào tạo của chúng, không có bất kỳ khả năng lý luận hoặc phản ánh thực tế nào. Từ thực tế này, người dùng phải tiếp cận đầu ra của AI bằng con mắt phê phán và đánh giá chúng bằng phán đoán của con người.

Thứ hai, điều quan trọng hơn là luôn kiểm tra chéo độ chính xác của nội dung do AI tạo ra. Chiến lược quan trọng nhất là tham chiếu chéo đầu ra của AI với các nguồn đáng tin cậy như các ấn phẩm của chuyên gia. Ngoài ra, có thể cân nhắc so sánh đầu ra từ nhiều nền tảng AI để hiểu rõ hơn về chất lượng kết quả mà mỗi nền tảng có thể tạo ra.

Nguồn tham khảo:

https://futurism.com/the-byte/amazon-begs-employees-chatgpt

https://analyticsindiamag.com/chatgpt-privacy-threat-is-real-and-we-are-late/

https://metanews.com/microsoft-warns-employees-not-to-share-sensitive-data-with-chatgpt/

https://www.cnbc.com/2021/01/15/dutch-government-resigns-after-childcare-benefits-scandal-.html

https://www.politico.eu/article/dutch-scandal-serves-as-a-warning-for-europe-over-risks-of-using-algorithms/

https://www.usatoday.com/story/opinion/columnist/2023/04/03/chatgpt-misinformation-bias-flaws-ai-chatbot/11571830002/

https://hai.stanford.edu/news/ai-trial-legal-models-hallucinate-1-out-6-or-more-benchmarking-queries

https://mitsloanedtech.mit.edu/ai/basics/addressing-ai-hallucinations-and-bias/

Nguyễn Anh Tuấn (tổng hợp)

Theo: Tạp chí Thị trường Tài chính Tiền tệ