Những hiểm họa của Trí tuệ Nhân tạo

Trịnh Khải Nguyên-Chương

 

Thời gian gần đây thế giới xôn xao về Trí tuệ Nhân tạo (dịch thoát từ cụm từ Artificial Intelligence, viết tắt là AI), về những khả năng siêu việt những hệ thống ngôn ngữ này có thể làm được. AI thực ra đã có từ nhiều thập kỷ trước, nhưng trong thời gian này, với sự xuất hiện của hệ thống ChatGPT đi vào dòng chính, và nhất là từ khi các tập đoàn công nghệ cao như Google, Microsoft, Facebook, Amazon, Apple, v.v. bắt đầu cuộc chạy đua xem ai là kẻ về trước, thì AI trở thành món hàng “nóng”. Trí tuệ của máy móc (thực chất, AI vẫn chỉ là một hệ thống máy tính gồm hai phần thiết bị cứng và mềm, mặc dù phức tạp và mạnh hơn nhiều so với cái máy cà khổ tôi đang sử dụng để viết những dòng chữ này) đang trên đà vượt xa con người, và người ta vội bật đèn vàng, đèn đỏ cảnh báo một nguy cơ có khả năng xảy ra nếu một ngày kia AI khống chế được con người. Mới đây, trên 300 nhân vật gồm Tổng giám đốc lãnh đạo các tập đoàn công kỹ nghệ lớn nhỏ, các khoa học gia, chuyên gia, giáo sư đại học đã ký chung một lá thư nêu lên hiểm họa này. Họ so sánh nó với chiến tranh hạt nhân hay đại dịch.

 

Nhưng cho đến thời điểm này, hiểm họa trước mắt của AI là gì? Nó có ghê rợn như chúng ta thấy Hollywood và các tiểu thuyết gia chuyên viết truyện khoa học viễn tưởng đưa ra trên phim ảnh và sách vở không? Cụm từ “AI doomsday”, ám chỉ ngày tận thế của loài người vì AI, khiến nhiều người lo sợ một ngày không xa, rô-bôt lên nắm vận mệnh thế giới và con người biến thành nô lệ cho chúng, nếu không hay chưa bị chúng giết sạch không chừa một mống.

 

Viễn ảnh ấy có lẽ còn xa vời, chưa hẳn là đúng, nhưng những tai hại thực tế ngày nay của AI thì được xác định là có, và nó đang làm suy yếu xã hội loài người một cách tiệm tiến, nhưng vô cùng đáng sợ. Nếu xem thường nó, nhân danh tiến bộ bỏ nó ngoài tai, thì tương lai của con người sẽ không sáng sủa chút nào, nếu không muốn nói là bi thảm. Bởi nó phá hủy nền tảng và mặt dệt xã hội vốn dựa trên cơ bản là sự tin tưởng vào nhau để cùng sinh tồn.

 

Thông tin giả. thông tin láo

 

Tai hại thứ nhất của AI đã và đang xảy ra là tệ trạng thông tin giả, thông tin láo. AI cài đặt trong những quy trình thuật toán (algorithm) được sử dụng bởi các trang mạng xã hội gây rối loạn không ít vì nó đầy rẫy những ngụy biện về kỳ thị giới tính/chủng tộc, gây chia rẽ, tạo phân hóa, hâm nóng căng thẳng chính trị, v.v. Một khi sức mạnh của AI tăng trưởng, tình trạng nói trên chỉ tăng cường độ chứ không giảm sút. Nó khiến người ta không còn biết đâu là sự thật, đâu là hư ngụy. 

 

Những vụ bạo loạn như vụ “6 tháng Giêng” ở tòa nhà Quốc hội Hoa Kỳ là kết quả của tình trạng này. Thậm chí, chiến tranh giữa các quốc gia, hoặc nội chiến, có thể xảy ra vì thông tin giả, thông tin láo, theo ý kiến của nhiều chuyên gia.

 

 

Bên trong những mô hình thiết kế ngôn ngữ lớn như ChatGPT, một khi thông tin giả, thông tin láo bị cài đặt, nó sẽ lặp lại, bởi khả năng cơ bản của AI là mô hình sau được huấn luyện để “học” từ mô hình trước và tìm cách tăng tiến, cái sai lầm cứ thế nhân lên mãi, khuếch tán từ tiểu họa biến thành đại họa. Hiệu ứng này, thuật ngữ trong ngành gọi là “model cannibalism”, tức là “mô hình ăn thịt” lẫn nhau. Mô hình trước nguy hiểm một, những mô hình sau nguy hiểm mười.

 

Một công trình nghiên cứu của cơ quan chuyên giám định sự chính xác của truyền thông có tên là NewsGuard liệt kê hơn chục trang mạng chuyên về tin tức hoàn toàn do AI soạn thảo, những trang mạng ấy chứa đựng một số lượng đáng kể thông tin giả, thông tin láo. Mục đích của họ là phá rối những phe phái không thuộc phe mình hoặc không chia sẻ cùng quan điểm. Có người không xem AI là mối nguy cho nhân loại, nhưng họ chẳng thể chối cãi tầm nguy hại của AI trong công tác truyền thông, báo chí.

 

Kiểu thông tin giả như bản tin Tổng thống Zelenskiy của Ukraine đọc diễn văn tuyên bố đầu hàng Nga hôm tháng Tư năm 2022 (chẳng cần tìm hiểu xa xôi, chắc chắn là do AI của Nga ngụy tạo) sẽ trở nên thường xuyên hơn. Vấn đề là làm sao phân biệt được đâu là chân, đâu là giả. Làm thế nào để biết tin mình đọc trên mạng là thật hay chỉ là ngụy tạo? Một câu hỏi chưa có đáp án.

 

Chi phối người sử dụng

 

Hiểm họa thứ hai có thể nói đến ở đây là mức độ ảnh hưởng của AI lên người sử dụng nó. Lẽ cố nhiên là ảnh hưởng tiêu cực, xấu, có thể gây thiệt hại về cả thể chất lẫn tinh thần. Thậm chí quan điểm và suy nghĩ trong đầu người sử dụng cũng có thể bị nó chi phối làm thay đổi. Có tin một người đàn ông bên xứ Bỉ đã tự tử sau khi trò chuyện với chatbot và bị chatbot khuyên nên quyên sinh. Có người bị chatbot khuyên nên bỏ người phối ngẫu. Vân vân. Chatbot có lối nói chuyện như người, tức là ấm áp, ra vẻ chân tình khiến người sử dụng có cảm tưởng như mình đang trò chuyện với người chứ không phải máy. Nguy hiểm là chỗ đó. Chúng ta hiện đang sống trong một thế giới phân hóa và cô đơn cùng cực, gần như tách biệt hẳn với đời sống hiện thực bên ngoài. Mỗi con người càng lúc càng giống như một ốc đảo trên đại dương bao la, không ai giao tiếp với ai ngoài cái máy vi tính hay cái điện thoại di động trong căn phòng riêng vắng lặng. Ra đường chúng ta không nhìn vào mắt người lạ nói một câu chào hỏi thân thiện mà chú mục vào chiếc máy di động trên tay đến nỗi suýt bị ô tô cán chết. Đó là đời sống hiện đại trong thế kỷ XXI.

 

Những mô hình ngôn ngữ lớn có khả năng thuyết phục người sử dụng thay đổi nhận thức và niềm tin, thí dụ như mô hình cài đặt bên trong các chương trình quảng cáo, khuyến mại. Không hẳn AI cố tình làm hại bản thân người sử dụng, nhưng hậu quả của việc chi phối người sử dụng là khôn lường vì mục đích của nó là làm sao cho người sử dụng chịu nghe lời mình thuyết phục.

 

Các chế độ chuyên chế độc tài như Trung Quốc, Việt Nam, Bắc Triều Tiên, Cuba không ngần ngại sử dụng AI như một phương tiện tẩy não và nhồi sọ người dân trong nước không ngoài mục đích tiêu diệt mọi mầm mồng đề kháng và phản biện từ người dân để tất cả biến thành một bầy cừu ngoan ngoãn răm rắp tuân lời chế độ. Đó là thế giới trong cuốn tiểu thuyết nhan đề 1984 của nhà văn George Orwell, một thế giới u tối trong đó con người sống như bầy thú trong cũi sắt. Sợ còn tệ hơn thế nữa, bởi vì trong thế giới đó, tự do vật thể không có đã đành, mà ngay cả suy nghĩ riêng tư trong đầu cũng bị chiếc vòng kim cô thắt chặt. Cuốn tiểu thuyết Orwell viết năm 1948, và từ đó cho đến nay vẫn là lời cảnh báo không bao giờ cũ cho nhân loại.

 

Công ăn việc làm

 

Vấn đề công ăn việc làm cũng là một hiểm họa tức thời do AI đem đến cho xã hội. Mới đây có tin hệ thống tiệm bán thức ăn nhanh Wendy sẽ thay thế nhân viên bán hàng bằng AI. Chẳng cần phải là nhà tiên tri, chúng ta cũng biết rằng một số lượng khổng lồ công nhân viên (phần nhiều là giới lao động ít khả năng chuyên môn và thanh thiếu niên) sẽ bị mất việc làm. Các công trình nghiên cứu cho thấy đến năm 2025, số công nhân viên trên toàn thế giới mất việc vì AI là khoảng 85 triệu. Con số này có thể gia tăng lên đến 300 triệu trong tương lai xa hơn.

 

 

Nhưng với các hệ thống ngôn ngữ càng ngày càng phát triển tinh vi hơn (đừng quên thuộc tính của AI là “tự học, tự tăng tiến”), thậm chí những ngành nghề với khả năng chuyên môn, đòi hỏi thiên tư và nhiều năm trời học tập, cũng có thể bị ảnh hưởng nghiêm trọng. Khoa học gia dữ kiện (làm việc chuyên ngành phân tích và lý giải dữ kiện khoa học), bác sĩ, luật sư, vân vân, đều có thể mất việc như chơi. Ngay cả người viết kịch bản cho phim truyện (đòi hỏi sự sáng tạo, một thuộc tính tưởng chỉ con người mới có) cũng đang có cơ nguy bị AI lấy mất job. AI thi “bar exam”, kết quả không thua kém một luật sư thực thụ. AI trả lời những câu hỏi về y tế, sức khỏe còn tài giỏi, chính xác hơn bác sĩ chuyên môn.

 

Thử hỏi, với tình trạng gần như bất khả đảo nghịch ấy, làm sao sự đào thải, không sớm thì muộn, không xảy ra được. 

Giới quan sát cảnh báo xã hội sẽ bất ổn nghiêm trọng nếu tình trạng mất công ăn việc làm hàng loạt xảy ra trên một bình diện rộng lớn.

 

Phóng chiếu về tương lai

 

Không ai nghi ngờ về khả năng AI sẽ giúp con người tiến bộ, một tiến bộ vượt bực chưa từng thấy trong vòng một hai trăm năm vừa qua. Với AI, đời sống con người sẽ mang một diện mạo mới mẻ. Thật khó tiên đoán sự mới mẻ này sẽ như thế nào, vì hiện nay AI mới chỉ là đứa bé lên ba. Lúc nó 30 tuổi, 300 tuổi, 3 ngàn tuổi (tuổi của AI dĩ nhiên không tính bằng năm như con người mà phải tính theo định luật Moore, tức là, cứ một năm rưỡi thì khả năng tăng gấp đôi) thì chỉ có cách để trí tưởng tượng dẫn dắt chúng ta thám hiểm những chân trời mới thôi. Nhưng cũng như tất cả những công nghệ khác, như Internet, mạng xã hội, nó có bộ mặt trái đen tối nằm ẩn nấp phía sau và nếu không cẩn trọng kiểm soát và hạn chế, nó sẽ gây nên những hậu quả tai hại không thể lường được. Các thể chế chính quyền cai trị ở Mỹ và Tây Âu xưa nay không mấy chú ý đến việc kiểm tra và hạn chế tự do các ngành công nghệ. Tình trạng rối mù, nếu không muốn nói là rối loạn có nguy cơ phá nát mặt dệt xã hội, của các mạng xã hội ngày nay là hậu quả không mấy tốt đẹp của chính sách đó. Tuy nhiên với AI, người ta sớm nhìn ra sự sai lầm chiến lược, và đó là lý do vì sao Quốc hội Mỹ mới đây đã triệu tập phiên họp mời ông Sam Altman, Tổng giám đốc tập đoàn công ty Open AI, ra điều trần. Giới quan sát tỏ vẻ lạc quan về sự kiện này, nhưng họ cũng không tiên đoán được sự thành công của nhà cầm quyền trong việc kiểm soát sự bung phá ngoài dự kiến của AI.

 

Tương lai AI vẫn là một dấu hỏi to tướng cho phần lớn chúng ta.

 

T. K. N.-C.

Tác giả gửi BVN

This entry was posted in Công nghệ trí tuệ nhân tạo. Bookmark the permalink.