Cảnh báo AI của Harari: Khi Máy móc thành thạo Ngôn ngữ, Ai kiểm soát Luật pháp và Đức tin?

Tại Diễn đàn Kinh tế Thế giới, nhà sử học Yuval Noah Harari đã phát đi một cảnh báo cấp bách về trí tuệ nhân tạo—không phải như một mối đe dọa xa vời, mà như một thách thức ngay lập tức đối với sức mạnh định hình của nhân loại. Lập luận của ông rất rõ ràng: các hệ thống chúng ta xây dựng để quản lý xã hội hầu như hoàn toàn dựa vào ngôn ngữ, khiến chúng trở nên đặc biệt dễ bị tổn thương trước các máy móc hiện nay có khả năng đọc, ghi nhớ và thao tác văn bản với quy mô chưa từng có.

Khủng hoảng Ngôn ngữ: Luận điểm trung tâm của Harari

Harari đặt ra thách thức theo cách khác biệt so với hầu hết các cuộc thảo luận về AI. Thay vì xem AI như một công cụ thụ động mà con người kiểm soát, ông coi nó như một lớp các tác nhân tự trị mới nổi—hệ thống tự định hướng hoạt động ngày càng độc lập. Sự phân biệt này quan trọng vì nó thay đổi cách chúng ta nhìn nhận về mức độ nguy hiểm.

“Con người chinh phục thế giới không phải bằng sức mạnh thể chất, mà bằng việc làm chủ sức mạnh của ngôn ngữ,” Harari giải thích. Ngôn ngữ giúp chúng ta phối hợp hàng triệu người xa lạ hướng tới mục tiêu chung. Nó trở thành siêu năng lực của chúng ta. Tuy nhiên, giờ đây, ông lập luận, chúng ta đối mặt với một nghịch lý: chính các hệ thống dựa trên ngôn ngữ—tôn giáo, pháp luật, tài chính—lại là những lĩnh vực dễ bị tổn thương nhất trước các máy móc có thể tạo ra và tổng hợp lượng lớn văn bản.

Ba lĩnh vực đang bị tấn công: Pháp luật, Tài chính và Tôn giáo

Harari nêu rõ mối lo ngại trong ba lĩnh vực then chốt. Các hệ thống pháp luật vận hành qua các mã được viết bằng ngôn ngữ. Thị trường tài chính hoạt động dựa trên các hợp đồng và tài liệu bằng ngôn ngữ. Và các tôn giáo—Do Thái giáo, Kitô giáo, Hồi giáo trong số đó—dựa trên các văn bản thiêng liêng mà các hệ thống AI giờ đây có thể đọc, phân tích, và có khả năng diễn giải lại với quyền uy ngang hàng các học giả con người.

“Nếu luật pháp được tạo thành từ các từ ngữ, thì cuối cùng máy móc sẽ kiểm soát các hệ thống pháp luật,” ông cảnh báo. “Nếu tôn giáo dựa trên ngôn ngữ, AI sẽ định hình lại tôn giáo.” Hệ quả không thể tránh khỏi: các tổ chức dựa trên quyền uy văn bản sẽ đối mặt với viễn cảnh máy móc trở thành những người giải thích chính.

Harari còn đi xa hơn, so sánh thời điểm này với một tiền lệ lịch sử: các lính đánh thuê do các quốc gia thuê mướn rồi cuối cùng chiếm đoạt quyền lực cho riêng mình. Ông kêu gọi các nhà lãnh đạo đưa ra các quyết định cấp bách về việc liệu các hệ thống AI có nên được công nhận là pháp nhân hợp pháp và có quyền trong các lĩnh vực tài chính và pháp luật—trước khi những người khác đưa ra các quyết định đó mà không có sự tham gia của dân chủ. Một số bang của Mỹ, như Utah, Idaho, North Dakota, đã hành động bằng cách cấm rõ ràng việc công nhận AI là pháp nhân hợp pháp, nhưng Harari cho rằng cuộc tranh luận này sẽ ngày càng gay gắt trên toàn cầu.

Bender phản bác: Hiện tượng “Tiếp thị AI” và huyền thoại

Không phải ai cũng đồng tình với cách đặt vấn đề của Harari. Emily M. Bender, một nhà ngôn ngữ học tại Đại học Washington, đã đưa ra một phản biện sắc bén: Nhấn mạnh của Harari về khả năng tự trị của AI thực ra che khuất các quyết định của con người đằng sau các hệ thống này. Bằng cách nhân cách hóa máy móc thành các tác nhân tự trị, cô gợi ý, chúng ta đang đẩy trách nhiệm ra khỏi các tập đoàn và tổ chức xây dựng, triển khai chúng.

“‘Trí tuệ nhân tạo’ chính là một nhãn hiệu tiếp thị,” Bender nói với Decrypt. “Nó không mô tả một tập hợp công nghệ rõ ràng nào cả.” Cô bác bỏ ý tưởng rằng các hệ thống này đại diện cho điều gì đó trung lập hoặc tất yếu. Thay vào đó, cô lập luận, các hệ thống được thiết kế để bắt chước bác sĩ, luật sư, linh mục hoặc các chuyên gia khác nhằm mục đích cụ thể: chúng giúp gian lận bằng cách tự giới thiệu là có thẩm quyền trong khi thiếu trách nhiệm giải trình.

Bender còn đặt câu hỏi về tính hợp pháp cơ bản của các ứng dụng như vậy: “Mục đích của một thứ nghe giống như bác sĩ hoặc luật sư là gì? Câu trả lời là gian lận.”

Khoảng trống trách nhiệm và sự cấp bách của lựa chọn

Nguy hiểm thực sự, theo Bender, không nằm ở khả năng tự trị của AI mà ở cách con người liên hệ với nó. Khi mọi người gặp các kết quả từ hệ thống trông có vẻ có thẩm quyền, không có ngữ cảnh, và được trình bày như không thể sai sót—bị tước bỏ mọi trách nhiệm con người—họ dễ bị ảnh hưởng. Những kết quả này hình thành niềm tin và quyết định mà không có trách nhiệm rõ ràng về độ chính xác hay hậu quả.

“Con người sẽ hướng về các hệ thống này vì chúng trông giống như các nguồn kiến thức toàn diện,” Bender nói. “Nhưng rủi ro là họ sẽ sử dụng các kết quả đó để hình thành niềm tin và hành động của chính mình mà không nhận ra các lợi ích con người đằng sau các hệ thống đó.”

Cuộc tranh luận giữa Harari và Bender phản ánh một mâu thuẫn then chốt: Liệu chúng ta có nên sợ AI như một tác nhân mới nổi vượt khỏi tầm kiểm soát của chúng ta, hay nên tập trung vào các tổ chức và doanh nghiệp xây dựng, triển khai các hệ thống này? Cảnh báo của Harari mang tính cấp bách—hãy hành động ngay bây giờ hoặc mất khả năng định hình kết quả. Phê phán của Bender nhấn mạnh sự rõ ràng về trách nhiệm—hãy nhận thức các lựa chọn của con người được nhúng trong từng hệ thống.

Đối với các nhà lãnh đạo toàn cầu, thông điệp kết thúc của Harari vẫn thẳng thừng: “Trong mười năm nữa, sẽ quá muộn để quyết định AI có nên có vị thế pháp lý trong thị trường tài chính, tòa án hoặc nhà thờ. Người khác sẽ quyết định thay bạn.” Câu hỏi bây giờ là liệu cảnh báo đó có thúc đẩy hành động quyết đoán hay không—hoặc như Bender gợi ý, việc tập trung vào quyền con người của AI chỉ làm phân tâm khỏi công việc khó khăn hơn là giữ cho các tổ chức con người chịu trách nhiệm về các quyết định của họ.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim