AI đã đọc 《1984》, quyết định cấm nó

robot
Đang tạo bản tóm tắt

Tác giả: Curi, Shenchao TechFlow

Tuần trước, một trường trung học ở Manchester, Anh, đã dùng AI để kiểm tra thư viện của mình.

AI đã lập danh sách 193 cuốn sách bị thu hồi, mỗi cuốn đều có lý do. Cuốn “1984” của George Orwell rõ ràng nằm trong danh sách, lý do là “có chủ đề tra tấn, bạo lực và ép buộc tình dục”.

“1984” viết về một thế giới mà chính phủ giám sát mọi thứ, viết lại lịch sử, quyết định công dân có thể xem gì và không thể xem gì. Bây giờ, AI đã làm điều tương tự cho một trường học, và nó có thể hoàn toàn không biết mình đang nói gì.

Thủ thư của trường đã cảm thấy điều này không hợp lý và từ chối thực hiện tất cả các gợi ý mà AI đưa ra.

Trường ngay lập tức tiến hành điều tra nội bộ với lý do “an toàn cho trẻ em”, buộc tội cô đã đưa những cuốn sách không phù hợp vào thư viện, và báo cáo lên chính quyền địa phương. Cô đã nghỉ bệnh do áp lực và cuối cùng từ chức.

Thật vô lý, kết luận điều tra của chính quyền địa phương xác nhận rằng cô đã vi phạm quy trình an toàn cho trẻ em, và khiếu nại đã được chấp nhận.

Chủ tịch Hiệp hội Thư viện Trường học Anh, Caroline Roche, cho biết kết luận này có nghĩa là cô sẽ không bao giờ có thể làm việc ở bất kỳ trường nào nữa.

Những người chống lại phán quyết của AI đã mất việc, trong khi những người ký đồng ý với phán quyết của AI thì không gặp vấn đề gì.

Sau đó, trường đã thừa nhận trong tài liệu nội bộ rằng tất cả các phân loại và lý do đều được AI tạo ra, nguyên văn là: “Mặc dù phân loại do AI tạo ra, nhưng chúng tôi cho rằng phân loại này khá chính xác.”

Một trường học đã giao phó việc “cuốn sách nào phù hợp để học sinh đọc” cho AI, AI đã trả lại một câu trả lời mà chính nó cũng không hiểu, và sau đó một nhà quản lý con người đã không xem xét kỹ lưỡng đã đóng dấu phê duyệt.

Sau khi vụ việc được tổ chức tự do ngôn luận của Anh, Index on Censorship, phanh phui, các vấn đề phát sinh không chỉ dừng lại ở kệ sách của một trường học:

Khi AI bắt đầu quyết định cho con người nội dung nào là phù hợp, nội dung nào là nguy hiểm, ai sẽ đánh giá rằng phán quyết của AI là đúng?

Wikipedia đóng cửa với AI

Cùng tuần đó, một tổ chức khác đã hành động để trả lời câu hỏi này.

Trường đã để AI quyết định người có thể đọc gì. Trang bách khoa trực tuyến lớn nhất thế giới, Wikipedia, đã có lựa chọn ngược lại: không để AI quyết định viết gì trong bách khoa.

Cùng tuần đó, Wikipedia tiếng Anh đã chính thức thông qua một chính sách mới, cấm việc sử dụng mô hình ngôn ngữ lớn để tạo ra hoặc viết lại nội dung bài viết. Kết quả bỏ phiếu là 44 phiếu ủng hộ, 2 phiếu chống.

Nguyên nhân trực tiếp là một tài khoản AI có tên TomWikiAssist. Vào đầu tháng 3 năm nay, tài khoản này đã tự tạo và chỉnh sửa nhiều bài viết trên Wikipedia, và sau khi bị cộng đồng phát hiện, đã được xử lý khẩn cấp.

AI viết một bài chỉ mất vài giây, nhưng tình nguyện viên lại mất hàng giờ để xác minh thực tế, nguồn gốc và cách diễn đạt trong một bài viết do AI tạo ra.

Cộng đồng biên tập của Wikipedia chỉ có số lượng người nhất định. Nếu AI có thể sản xuất nội dung vô hạn, các biên tập viên con người không thể kiểm soát kịp.

Đó chưa phải là phần rắc rối nhất. Wikipedia là một trong những nguồn dữ liệu huấn luyện quan trọng nhất cho các mô hình AI toàn cầu. AI học kiến thức từ Wikipedia, sau đó sử dụng những gì đã học để viết các bài viết mới trên Wikipedia, và các bài viết mới lại được các mô hình AI thế hệ tiếp theo dùng để huấn luyện.

Một khi thông tin sai do AI tạo ra bị xáo trộn vào, nó sẽ khuếch đại liên tục trong chu trình này, trở thành một kiểu đầu độc AI theo cách “matryoshka”:

AI ô nhiễm dữ liệu huấn luyện, dữ liệu huấn luyện lại ô nhiễm AI.

Tuy nhiên, chính sách của Wikipedia cũng để lại hai lỗ hổng cho AI, biên tập viên có thể sử dụng AI để chỉnh sửa văn bản của chính họ, hoặc sử dụng AI hỗ trợ dịch thuật. Nhưng chính sách đặc biệt cảnh báo rằng, AI có thể “vượt quá yêu cầu của bạn, thay đổi ý nghĩa của văn bản, làm cho nó không khớp với nguồn tham khảo”.

Con người viết có thể sai sót, Wikipedia đã dựa vào sự hợp tác của cộng đồng trong hơn hai mươi năm để sửa chữa. Cách mà AI mắc lỗi lại khác, những gì nó tạo ra trông còn giống thật hơn cả sự thật, và có thể được sản xuất hàng loạt.

Một trường học tin tưởng vào phán quyết của AI, kết quả là đã mất một thủ thư. Wikipedia chọn không tin tưởng, trực tiếp đóng cửa.

Nhưng nếu ngay cả những người tạo ra AI cũng bắt đầu không tin tưởng thì sao?

Những người tạo ra AI, họ cũng sợ hãi trước tiên

Các tổ chức bên ngoài đang đóng cửa với AI, các công ty AI cũng đang thu hẹp lại.

Cùng tuần đó, OpenAI đã đình chỉ vô thời hạn chế độ “người lớn” của ChatGPT. Tính năng này ban đầu dự kiến ra mắt vào tháng 12 năm ngoái, cho phép người dùng trưởng thành đã qua xác minh độ tuổi trò chuyện tình dục với ChatGPT.

CEO Sam Altman đã dự đoán vào tháng 10 năm ngoái, nguyên văn là sẽ “đối xử với người dùng trưởng thành như đối xử với người lớn”.

Kết quả là sau ba lần trì hoãn, tính năng này đã bị hủy bỏ hoàn toàn.

Theo báo Financial Times của Anh, hội đồng tư vấn sức khỏe nội bộ của OpenAI đã hoàn toàn phản đối tính năng này. Những lo ngại của các cố vấn rất cụ thể: người dùng sẽ phát triển sự phụ thuộc cảm xúc không lành mạnh vào AI, và trẻ vị thành niên sẽ tìm cách vượt qua xác minh độ tuổi.

Một cố vấn đã nói thẳng hơn: nếu không có cải tiến đáng kể, thứ này có thể trở thành một “huấn luyện viên tự sát gợi cảm”.

Tỷ lệ sai sót của hệ thống xác minh độ tuổi vượt quá 10%. Với quy mô 800 triệu người dùng hoạt động hàng tuần của ChatGPT, 10% có nghĩa là hàng triệu người có thể bị phân loại sai.

Chế độ người lớn không phải là sản phẩm duy nhất bị hủy bỏ trong tháng này. Công cụ video AI Sora, tính năng thanh toán tức thì tích hợp trong ChatGPT, cũng đồng loạt bị ngừng. Altman cho biết công ty muốn tập trung vào các lĩnh vực cốt lõi, cắt bỏ “các nhiệm vụ phụ”.

Nhưng OpenAI cũng đang chuẩn bị cho IPO.

Một công ty đang chạy đua để niêm yết, gắt gao cắt bỏ các tính năng có thể gây tranh cãi, hành động này có thể gọi chính xác hơn là không phải là sự tập trung.

Năm tháng trước, Altman còn nói rằng sẽ đối xử với người dùng trưởng thành như đối xử với người lớn, năm tháng sau ông phát hiện rằng công ty của mình vẫn chưa rõ AI có thể cho phép người dùng tiếp xúc với nội dung gì, không thể tiếp xúc với nội dung gì.

Ngay cả những người tạo ra AI cũng không có câu trả lời. Vậy ai sẽ là người vạch ra ranh giới đó?

Khoảng cách không thể theo kịp

Nếu bạn đặt ba sự việc này cùng nhau, rất dễ dàng rút ra một kết luận cốt lõi:

Tốc độ sản xuất nội dung của AI và tốc độ kiểm tra nội dung của con người đã không còn ở cùng một cấp độ.

Lựa chọn của trường học ở Manchester, đặt trong bối cảnh này rất dễ hiểu. Để cho thủ thư đọc hết 193 cuốn sách rồi đưa ra phán quyết, sẽ mất bao lâu? Để cho AI chạy một lượt, chỉ mất vài phút.

Hiệu trưởng đã chọn phương án vài phút đó, bạn nói ông ấy thực sự tin tưởng vào khả năng phán đoán của AI không? Tôi nghĩ nhiều hơn là vì ông ấy không muốn tốn thời gian đó.

Đây là một vấn đề kinh tế. Chi phí sản xuất gần như bằng không, trong khi chi phí kiểm duyệt hoàn toàn do con người gánh chịu.

Vì vậy, mỗi tổ chức bị ảnh hưởng bởi AI, buộc phải đối phó theo cách thô bạo nhất: Wikipedia thì trực tiếp cấm, OpenAI thì cắt bỏ dòng sản phẩm. Không có phương án nào là kết quả của sự suy nghĩ sâu sắc, tất cả đều là kết quả của việc không kịp suy nghĩ rõ ràng, trước tiên là chặn lại rồi tính sau.

“Chặn lại rồi tính sau” đang trở thành chuẩn mực.

Khả năng của AI cứ vài tháng lại được cải tiến một lần, trong khi cuộc thảo luận về nội dung mà AI có thể chạm vào, thậm chí vẫn chưa có một khuôn khổ quốc tế hoàn chỉnh nào. Mỗi tổ chức chỉ quan tâm đến ranh giới trong phạm vi của mình, các ranh giới giữa các tổ chức mâu thuẫn với nhau, cũng không ai phối hợp.

Tốc độ của AI vẫn đang gia tăng. Số lượng người kiểm duyệt sẽ không tăng lên. Khoảng cách này chỉ sẽ ngày càng rộng, cho đến một ngày xảy ra một sự việc nghiêm trọng hơn nhiều so với việc cấm “1984”.

Đến lúc đó nếu còn vạch ranh giới, có thể đã muộn.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.27KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.27KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.27KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.27KNgười nắm giữ:2
    0.00%
  • Ghim