Những điểm yếu chí mạng của trí tuệ nhân tạo

08:00, 10/07/2023
ThS. Trần Vũ Hà Minh
Indochine Counsel

Chỉ tập trung khai thác các mặt tích cực mà ít khi đề cập đến những vấn đề mà trí tuệ nhân tạo (AI) có thể gây ra, con người sẽ khó nhận thức được tầm quan trọng của quản trị trí tuệ nhân tạo.

Được đưa vào chương trình nghị sự chính của G7 Summit tại Nhật Bản năm 2023, quản trị trí tuệ nhân tạo “AI governance” đã trở thành một yêu cầu cấp bách mà các nhà lãnh đạo trên thế giới đang quan tâm. Tuy nhiên tại Việt Nam, AI phần đa đang được nhắc đến qua các mặt tích cực mà công nghệ này đem lại cho con người nên lý do phải quản trị trí tuệ nhân tạo vẫn là điều mà chưa nhiều người nắm được. Loạt bài này bắt đầu vào việc trình bày các điểm yếu, các vấn đề của công nghệ này mà con người, đặc biệt là các nhà lãnh đạo, cần phải nắm rõ.

Blackbox

Blackbox trong trí tuệ nhân tạo (AI) là một khái niệm được sử dụng để mô tả tính chất không thể hiểu hoặc không thể giải thích một cách chi tiết về các hoạt động của một hệ thống AI và cách hệ thống này đưa ra kết quả. Rất nhiều ứng dụng AI bị coi là “blackbox”, trong đó, ứng dụng chơi cờ vây AlphaGo của Goolge DeepMind là một ví dụ điển hình.

Vào tháng 3/2016, AlphaGo, hệ thống học sâu (deep learning) phát triển bởi Google DeepMind đã có chiến thắng áp đảo Lee Sedol, cờ thủ hàng đầu thế giới với 18 lần vô địch thế giới từ Hàn Quốc. Sự kiện lần đầu tiên một hệ thống trí tuệ nhân tạo vượt qua một cờ thủ hàng đầu thế giới trong một trò chơi tưởng tượng như cờ vây đã làm cả thế giới ngạc nhiên về sức mạnh và khả năng của trí tuệ nhân tạo nhưng đồng thời cũng dấy lên những quan ngại cơ chế mà các hệ thống trí tuệ nhân tạo đưa ra kết quả và quyết định.

Kể từ thời điểm này, “tính minh bạch” bắt đầu được quan tâm trong các hệ thống AI như một đặc thù của các thuật toán deep learning chuyên sâu. Để mô tả vấn đề này một cách trực quan hóa hơn, phó giáo sư Samir Rawashdeh, chuyên gia về trí tuệ nhân tạo của đại học Michigan tại Dearborn đã nói mô hình deep learning – một trong những mô hình thuật toán AI hiện đại nhất hiện nay - hoạt động giống như cách một đứa trẻ khi học những điều mới.

Cụ thể khi một đứa trẻ bắt đầu học nhận dạng các chữ B hoặc một con mèo. Chỉ cần đưa cho đứa trẻ một “thẻ học” ban đầu, chúng có thể nhận dạng bất cứ chữ “B” hoặc “con mèo” ở các dạng hình ảnh khác nhau một cách tự động và vô thức. Làm được điều này thì dễ, nhưng để giải thích cơ chế của hệ thống này thì gần như không thể. 

Các thuật toán học sâu được huấn luyện tương tự cách dạy trẻ em. Bạn cung cấp cho hệ thống những ví dụ đúng về một cái gì đó mà bạn muốn nó có khả năng nhận biết, và không lâu sau đó, xu hướng tìm kiếm xuất phát từ chính nó sẽ tạo ra một "mạng thần kinh" để phân loại những thứ mà nó chưa từng trải qua trước đây.

Nhưng Rawashdeh nói rằng, tương tự như trí tuệ con người, chúng ta không biết cách một hệ thống học sâu đến được kết luận của mình. Nó đã "mất dấu" những đầu vào đã thông tin cho quá trình ra quyết định của nó từ lâu. Hoặc, chính xác hơn, nó chưa bao giờ theo dõi.

Vấn đề blackbox có thể tạo ra các thách thức trong việc áp dụng AI vào các lĩnh vực mà các kết quả và các quyết định có tầm quan trọng và ảnh hưởng lớn đến tính mạng cũng như tài sản của con người như ứng dụng trong y tế, tài chính và luật pháp. Ví dụ trong các ứng dụng chuẩn đoán y khoa dựa trên hình ảnh chụp X quang hay CT, các bác sĩ phải chịu trách nhiệm trên mỗi y lệnh của mình. Nếu không hiểu rõ cơ chế mà ứng dụng AI đưa ra kết quả chuẩn đoán, các bác sĩ dễ có xu hướng dựa hoàn toàn vào kết quả mà AI đưa ra mà không thể giải thích được. Do đó sự minh bạch và giải thích là cần thiết để đảm bảo tính công bằng và đáng tin cậy.

Có thể nói, sự thiếu minh bạch hay “blackbox” chính là một điểm yếu chí mạng của công nghệ AI trong việc áp dụng rộng rãi vào thực tế. Mục tiêu cuối cùng là tạo ra các mô hình AI không chỉ có khả năng dự đoán chính xác mà còn có thể giải thích được cách chúng đưa ra dự đoán đó.

Điểm yếu chí mạng của AI khi đưa vào thực tế
“Blackbox” chính là một điểm yếu chí mạng của công nghệ AI trong việc áp dụng rộng rãi vào thực tế

Bias (thiên kiến/thiên lệch/thiên vị)

Bias là xu hướng, khuynh hướng, hoặc thành kiến đối với hoặc chống lại một vật nào đó, hoặc ai đó. Chúng ta không nên quên rằng các hệ thống AI được tạo ra bởi con người, những người có thể thiên vị và phán xét. 

Một ví dụ cụ thể là việc một phần mềm được sử dụng để dự đoán tội phạm trong tương lai có thành kiến với người da đen, hoặc đưa ra các quyết định ưu tiên các nhóm người chiếm số động xã hội và xem nhẹ những nhóm người thiểu số. Như ở châu Âu và Hoa Kỳ nơi vấn đề phân biệt chủng tộc vẫn nhức nhối và các chính sách đều coi trọng sự đa dạng và hòa hợp thì sự thiên vị trong các kết quả của trí tuệ nhân tạo là một trong những điểm chính mà các nhà lập pháp Âu Mỹ quan tâm.

Có rất nhiều nguyên nhân dẫn đến bias trong AI, mà nghiên cứu của đại học California tại Bekerly đã phân ra làm ba loại chính: nguyên nhân tổ chức, nguyên nhân trong ngành nghề, nguyên nhân xã hội.

Nguyên nhân trong tổ chức dễ nhận thấy nhất là đội ngũ phát triển phần mềm AI thường là nam giới, da trắng và xuất thân từ khối khoa học tự nhiên lập, thiếu hiểu biết về kiến thức chuyên môn về xã hội học cũng như những trải nghiệm của nữ giới hoặc các nhóm người thiểu số yếu thế trong xã hội. Dễ thấy kết quả của các ứng dụng AI do họ tạo ra đôi khi thiếu sự thông cảm cân nhắc các thành phần thiểu số trong cộng đồng.

Các nguyên nhân trong ngành nghề và nguyên nhân xã hội thường khó nhận biết hơn. Ngành công nghệ thông tin phát triển như vũ bão với các công ty cạnh tranh nhau để phát triển và ra mắt sản phẩm mới ứng dụng những công nghệ tiên tiến nhất. Các công nghệ này nhiều khi có những vấn đề mà các nhà làm luật chưa kịp nhận ra và quy định. Việc thiếu các quy định và hướng dẫn chính thức từ chính phủ cũng như hiệp hội ngành nghề cũng là một nguyên nhân khiến các công ty công nghệ thường xem nhẹ các vấn đề đạo đức như là bias trong sản phẩm của mình.

Về nguyên nhân xã hội, vì các lý do bất bình đẳng mang tính lịch sử dẫn đến sự không cân bằng trong các chỉ số xã hội, kinh tế, dân số giữa các nhóm cộng đồng. Do đó việc thu thập tất cả các dữ liệu của các đại diện thiểu số là rất khó khăn tốn kém, đôi khi là bất khả thi dẫn đến bias chính từ trong tập dự liệu.

Các vấn đề bảo mật, quyền riêng tư và các tác hại khác

Hệ thống trí tuệ nhân tạo thường phụ thuộc vào dữ liệu rộng lớn để huấn luyện các thuật toán và cải thiện hiệu suất. Dữ liệu này có thể bao gồm thông tin cá nhân như tên, địa chỉ, thông tin tài chính và thông tin nhạy cảm như hồ sơ y tế và số bảo hiểm xã hội.

Việc thu thập và xử lý dữ liệu này có thể gây lo ngại về cách nó được sử dụng và ai có quyền truy cập vào nó. Mối lo ngại chính về quyền riêng tư liên quan AI là nguy cơ vi phạm dữ liệu và truy cập trái phép vào thông tin cá nhân. Với việc thu thập và xử lý lượng lớn dữ liệu, tồn tại rủi ro rằng dữ liệu có thể rơi vào nhóm người xấu, thông qua việc tấn công hoặc các vi phạm bảo mật khác.

Ngoài ra cần đề cập đến các vấn đề nghiêm trọng khi mà công nghệ AI được các nhóm người có ý đồ xấu tạo ra những sản phẩm dịch vụ đem lại kết quả xấu cho con người. Một trong những ví dụ điển hình đó là khi công nghệ AI phân tích hình ảnh con người được sử dụng trong vũ khí giết người hàng loạt như xe tự hành hay drone.

Ngoài ra sự phát triển công cụ AI tạo sinh cũng tạo ra nhiều thông tin, hình ảnh giả (deepfake) hoặc sự phát triển công cụ AI trong phân tích tài chính có thể bị lạm dụng để tạo ra sự thao túng thị trường tài chính và chứng khoán…

Thất nghiệp và bất bình đẳng

Tình trạng thất nghiệp trên quy mô lớn do trí tuệ nhân tạo gây ra được chú ý trên khắp thế giới như là một trong những tác động tiêu cực nhất của công nghệ này.

Tương tự các cuộc cách mạng công nghiệp trước đây đã thay đổi cách mọi người làm việc và đã dẫn đến sự thay đổi đáng kể trong cấu trúc kinh tế và xã hội, trí tuệ nhân tạo được Goldman Sachs dự đoán sẽ thay thế 300 triệu việc làm theo một báo cáo đầu năm 2023. Thậm chí, viện nghiên cứu McKinsey toàn cầu còn đưa ra những dự báo bi quan hơn với ước tính khoảng 400 triệu đến 800 triệu lao động cần học bị thất nghiệp do tự động hóa và cần chuyển việc khác vào năm 2030 trong kịch bản khả quan nhất khi mà các công nghệ tự động hóa được áp dụng và phổ biến nhanh.

Sự thất nghiệp trên diện rộng và nền kinh tế phụ thuộc vào quy mô lượng thông tin thu thập được sẽ kéo theo sự bất bình đẳng ở mức độ chưa từng thấy.

Phần lớn công ty vẫn phụ thuộc vào việc “công lao động theo giờ” để cung cấp sản phẩm dịch vụ cho khách hàng và trả các chi phí tương ứng bằng mức lương theo giờ. Nhưng bằng cách sử dụng trí tuệ nhân tạo, một công ty có thể cắt giảm đáng kể việc dựa vào lực lượng lao động con người và điều này có nghĩa là doanh thu sẽ đến tay ít người hơn. Do đó, những cá nhân có quyền sở hữu trong các công ty do AI điều khiển sẽ kiếm được tất cả tiền.

Có thể thấy những công ty lớn nhất thế giới đều là những công ty có ứng dụng AI mạnh trong việc phát triển dịch vụ sản phẩm của họ như Google, Microsoft, Tesla… Những công ty công nghệ lớn ở Hoa Kỳ và các nước phát triển có tài nguyên và truy cập vào công nghệ cao hơn sẽ hưởng lợi nhiều hơn từ AI, trong khi những người hoặc cộng đồng khác có thể bị bỏ lại phía sau. Điều này có thể gây ra khoảng cách kinh tế và xã hội sâu rộng.

Sự lệ thuộc vào công nghệ

Sự phụ thuộc vào AI có thể dẫn đến việc con người mất khả năng tự quyết định và kiểm soát. Khi các hệ thống AI đưa ra quyết định thay cho con người, sự tự chủ và khả năng tham gia của con người trong quyết định đó có thể bị giảm. Điều này có thể làm mất đi quyền lựa chọn và ảnh hưởng đến sự tự do cá nhân. Ví dụ khi chọn món ăn hay nghe nhạc, con người có xu hướng phụ thuộc vào các gợi ý mà google hoặc các ứng dụng đưa ra.

Ngoài ra, khi con người trở nên quá phụ thuộc vào công nghệ AI, sự tự chủ và kỹ năng truyền thống có thể bị suy giảm. Cụ thể, nếu quá phụ thuộc vào các công cụ dịch thuật tự động, làm bài tập, báo cáo của AI tạo sinh thì trong một khoảng thời gian dài thì trẻ em thế hệ sau có thể ỷ lại vào công nghệ không tự suy nghĩ làm bài tập. Tương tự như vậy, khi chúng ta ỷ vào xe tự hành quá nhiều có thể trong tương lai chúng ta mất đi kỹ năng lái xe.

Nguy hiểm hơn, nếu con người không còn được đào tạo hoặc thực hành các kỹ năng và nhiệm vụ mà AI đã thay thế, họ có thể mất đi khả năng sáng tạo, khả năng giải quyết vấn đề và sự phát triển cá nhân. Cụ thể, trong các nghề nghiệp chuyên môn như bác sĩ, chuẩn đoán y khoa từ AI có mức độ chính xác cao có thể dẫn đến việc đầu tư đào tạo nâng cao chuyên môn cho các bác sĩ chuẩn đoán hình ảnh giảm xuống, từ đó ít bác sĩ trẻ chọn chuyên khoa chuẩn đoán hình ảnh trong tương lai. Về lâu về dài, chắc chắn sẽ dẫn đến kết quả tiêu cực là các bác sĩ trong tương lai sẽ dần mất đi khả năng đọc phim ảnh y khoa bằng mắt thường…