Trí thông minh nhân tạo – thấy gì từ dự thảo luật của EU?

TS. Lê Thiên Hương

(KTSG) – Sự kiện nổi bật nhất gần đây là vào cuối tháng 4 vừa qua, Ủy ban châu Âu (EC), cơ quan hành pháp của Liên minh châu Âu (EU) đã công bố dự thảo luật liên quan tới trí thông minh nhân tạo (articifial intelligence – AI)

AI đang tạo ra những thay đổi chóng mặt trong nhiều lĩnh vực khác nhau. Làm giảm ô nhiễm, giảm tỷ lệ tai nạn giao thông, nâng cao chất lượng dịch vụ y tế, tạo điều kiện cho người dân tiếp cận thông tin, giáo dục, đào tạo, hạn chế khủng bố, tội phạm hay giúp nâng cao an ninh mạng, là một vài trong rất nhiều lợi ích tiềm tàng của AI. Ví dụ cụ thể trong cuộc chiến chống dịch Covid-19 hiện nay, AI cũng góp phần không nhỏ, như giúp dự đoán sự lây lan của virus tại các vị trí địa lý nhất định, hay giúp phát triển thuốc và vaccin phòng ngừa Covid-19.

Tuy nhiên, không thể phủ nhận rằng công nghệ này cũng tạo ra những nguy cơ lớn, như làm nảy sinh các vấn đề về an toàn cá nhân, về bảo vệ thông tin cá nhân hay bảo vệ đời sống riêng tư. Không chỉ thế, AI còn có thể dẫn tới việc cá nhân chỉ tiếp nhận thông tin một chiều, phù hợp sở thích bản thân, làm người ta dễ có cái nhìn sai lệch về thực tế. Việc sử dụng AI để tạo ra deepfakes (sản phẩm công nghệ giả mạo dưới dạng âm thanh, hình ảnh hay video) cũng có thể gây ra chia rẽ, bất ổn xã hội và chính trị. Ngoài ra, AI còn dẫn tới những nguy cơ mới trong lĩnh vực lao động hay ảnh hưởng xấu tới cạnh tranh lành mạnh giữa các doanh nghiệp.

Hệ thống AI bị coi là có “nguy cơ không chấp nhận được” như “social scoring” (chấm điểm xã hội), hệ thống nhận diện khuôn mặt nơi công cộng, hệ thống chi phối hành vi người tiêu dùng… sẽ bị cấm sử dụng, trừ một số ngoại lệ liên quan tới an ninh quốc gia.

Hiện nay, trong lĩnh vực pháp lý, cũng đang dấy lên lên hàng loạt các câu hỏi liên quan tới việc sửa đổi luật để bắt kịp sự phát triển của công nghệ AI, từ các vấn đề bảo vệ thông tin cá nhân, đời tư, luật lao động cho đến quyền sở hữu trí tuệ, từ trách nhiệm dân sự cho đến hình sự (như liên quan tới xe không người lái, robot, hay thậm chí vấn đề quấy rối tinh thần khi AI được sử dụng trong quản lý nhân sự, hay tai nạn nghề nghiệp khi AI được sử dụng trong lĩnh vực y tế…).

Trước những lợi ích và nguy cơ nói trên, càng ngày càng có nhiều quốc gia trên thế giới tập trung xây dựng luật để thúc đẩy nghiên cứu, phát triển ứng dụng AI trong công nghiệp và đời sống hàng ngày, cũng như hạn chế nguy cơ mà công nghệ này tạo ra.

Với việc công bố dự thảo luật liên quan tới AI nói trên, đây là lần đầu tiên trong lịch sử EU một khuôn khổ pháp lý chung về AI sẽ được hình thành, nhằm đảm bảo an ninh cũng như bảo vệ các quyền căn bản của cá nhân và doanh nghiệp, đồng thời thúc đẩy sáng tạo và đầu tư phát triển công nghệ AI ở châu Âu.

Dự thảo vạch ra khá rõ lằn ranh giới hạn mà các doanh nghiệp, cũng như các chính phủ châu Âu có thể sử dụng công nghệ AI trong hoạt động của mình. Khi được thông qua, luật sẽ không chỉ có tác động trực tiếp tới các ông lớn công nghệ như Microsoft, Amazon, Google, Facebook, vốn đã đầu tư rất nhiều vào AI, mà còn tác động tới vô số doanh nghiệp khác sử dụng AI trong nghiên cứu phát triển thuốc, vào đánh giá hồ sơ bảo hiểm hay hồ sơ tín dụng…, hay thậm chí tới các chính phủ châu Âu (thường sử dụng công nghệ này trong điều tra tội phạm hoặc trong việc cấp trợ cấp xã hội). Một số điểm chính dưới đây của dự thảo luật này đang thu hút sự chú ý của dư luận.

Thứ nhất, dự thảo luật đưa ra định nghĩa về AI là “phần mềm”, được phát triển bằng một hay nhiều  “kỹ thuật và cách tiếp cận”, mà “tạo ra sản phẩm đầu ra như nội dung, dự đoán, khuyến nghị hay quyết định có tác động tới môi trường tương tác”. Theo phụ lục I của dự luật thì “kỹ thuật và cách tiếp cận” nói trên bao gồm “machine learning approaches” (học máy), “logic and knowledge-based approaches” (logic và kiến thức), “statistical approaches” (thống kê), “Bayesian estimation” (ước lượng dựa vào định lý Bayes), “search and optimisation methods” (phương pháp tìm kiếm và tối ưu hóa). Định nghĩa rộng này dẫn tới việc hàng loạt công nghệ sẽ nằm trong phạm vi định nghĩa AI, và vì thế sẽ phải tuân thủ các quy định của luật này.

Thứ hai, cần nhấn mạnh là phạm vi áp dụng của dự thảo luật cũng rất rộng. Cụ thể, mọi hệ thống AI mà sản phẩm đầu ra của nó được sử dụng ở châu Âu thì sẽ phải tuân thủ luật này.

Thứ ba, dự thảo đặt ra những quy định rất chặt chẽ nhằm kiểm soát tính an ninh an toàn của các thiết bị máy móc sử dụng công nghệ AI và nhằm bảo vệ các quyền căn bản của cá nhân. Đặc biệt, EC đề xuất một cách tiếp cận dựa trên các mức độ “nguy cơ”, bao gồm: nguy cơ ở mức không thể chấp nhận, nguy cơ cao, nguy cơ giới hạn và nguy cơ thấp. Mỗi mức độ nguy cơ sẽ ứng với một hệ thống quy định kiểm soát riêng.

Ví dụ, hệ thống AI bị coi là có “nguy cơ không chấp nhận được” như “social scoring” (chấm điểm xã hội), hệ thống nhận diện khuôn mặt nơi công cộng, hệ thống chi phối hành vi người tiêu dùng… sẽ bị cấm sử dụng, trừ một số ngoại lệ liên quan tới an ninh quốc gia. Đối với những hệ thống AI nguy cơ “cao” (gồm AI được sử dụng trong máy móc, đồ chơi, thiết bị y tế, phương tiện giao thông, thiết bị hàng hải…), dự thảo luật quy định hàng loạt nghĩa vụ ngặt nghèo của nhà cung cấp liên quan tới an ninh an toàn (như chứng nhận an toàn, đánh giá nguy cơ, hệ thống lưu trữ thông tin…).

Ngay cả như đối với hệ thống AI nguy cơ “thấp”, dự thảo luật cũng quy định nguyên tắc “minh bạch”, ví dụ, khi AI (deepfake) tương tác với một cá nhân, thì luật quy định cá nhân đó phải được thông báo là bản thân đang tương tác với AI, chứ không phải với người thật.

Một khi được thông qua, thì luật này sẽ được áp dụng trực tiếp trên toàn bộ lãnh thổ EU. Theo bà Margrethe Vestager, Phó chủ tịch EC, “với những quy định quan trọng này, châu Âu đang đi đầu trong việc phát triển các quy định toàn cầu mới, để đảm bảo rằng AI là có thể tin tưởng được”.

Tất nhiên, EU không hề đơn độc. Anh, Ấn Độ cũng đang nhanh chóng tìm cách kiểm soát ngành công nghiệp AI. Trung Quốc cũng đang nhắm vào các công ty công nghệ lớn như Alibaba, Tencent. Ở Mỹ, các nguy cơ từ AI cũng đang được các cơ quan chức năng xem xét và đánh giá.

Ở một vài bang và thành phố như Massachusetts hay Oakland, San Francisco, chính quyền cũng đã cấm dùng AI nhận diện khuôn mặt. Rõ ràng là càng sớm có các quy định pháp lý rõ ràng, cụ thể để kiểm soát AI, thì càng dễ tránh các nguy cơ nghiêm trọng về sau, đồng thời mang lại sự an tâm cho thị trường, cần thiết cho cả doanh nghiệp lẫn người tiêu dùng.

L.T.H.

Nguồn: TheSaigontimes

.

This entry was posted in Công nghệ trí tuệ nhân tạo. Bookmark the permalink.