Tôi vừa đọc một cuộc điều tra mới xuất bản hôm qua trên The New Yorker khiến nhiều người sốc. Ronan Farrow và Andrew Marantz phỏng vấn hơn 100 người, thu thập các bản ghi nhớ nội bộ chưa từng được tiết lộ và hơn 200 trang ghi chú cá nhân của Dario Amodei (người sáng lập của Anthropic, người rời khỏi OpenAI). Kết quả gần như là một quả bom.



Mọi chuyện bắt đầu với một tài liệu dài 70 trang mà Ilya Sutskever, nhà khoa học trưởng của OpenAI, biên soạn vào mùa thu năm 2023. Ông tập hợp các tin nhắn Slack, liên lạc với bộ phận Nhân sự, biên bản các cuộc họp. Mục đích? Trả lời một câu hỏi đơn giản: Sam Altman, người kiểm soát có thể là công nghệ nguy hiểm nhất trong lịch sử, có đáng tin cậy không? Phản hồi của Sutskever trong dòng đầu tiên: Sam thể hiện một mẫu mực nhất quán của... những lời nói dối.

Các ví dụ rất cụ thể. Vào tháng 12 năm 2022, Altman đảm bảo với hội đồng rằng các chức năng của GPT-4 đã qua kiểm tra an toàn. Khi họ yêu cầu các tài liệu phê duyệt, họ phát hiện ra rằng hai trong số các điều chỉnh tùy chỉnh (và triển khai trợ lý cá nhân) gây tranh cãi nhất chưa từng được phê duyệt. Sau đó là vụ ở Ấn Độ, nơi Microsoft ra mắt ChatGPT trước khi hoàn tất các kiểm tra an toàn. Sutskever cũng ghi chú rằng Altman đã nói với CTO Mira Murati rằng quy trình an toàn không quan trọng lắm vì cố vấn pháp lý đã phê duyệt rồi. Khi Murati hỏi lại cố vấn pháp lý? Ông trả lời: "Tôi không biết Sam lấy đâu ra chuyện đó".

Nhưng điều lạnh lùng nhất là về đội ngũ "siêu phù hợp". Vào giữa năm 2023, Altman liên hệ với một sinh viên Berkeley nghiên cứu về sự phù hợp của AI, rất lo lắng về vấn đề này, nói về một giải thưởng nghiên cứu trị giá 1 tỷ đô la. Người này đã bỏ học, vào OpenAI. Rồi Altman đổi ý: tạo ra một đội nội bộ thay vì trao thưởng, và công khai tuyên bố sẽ dành 20% khả năng tính toán của công ty (cơ hội hơn 1 tỷ đô la). Ngôn ngữ cực kỳ nghiêm trọng, nói về "tuyệt chủng loài người" nếu sự phù hợp không được giải quyết.

Thực tế? Bốn người từng làm việc ở đó nói rằng chỉ có 1-2% tổng khả năng đã được phân bổ, với phần cứng cũ. Đội ngũ bị giải thể mà không hoàn thành gì cả. Khi các nhà báo yêu cầu phỏng vấn những người phụ trách nghiên cứu "an toàn tồn tại", phản hồi từ bộ phận truyền thông là: "Điều đó không thực sự tồn tại".

Và còn nữa. Sarah Friar, Giám đốc tài chính của OpenAI, phản đối gay gắt với Altman về IPO. Cô cho rằng chưa sẵn sàng - còn nhiều thủ tục hành chính chưa xong và rủi ro từ lời hứa của Altman sẽ chi 600 tỷ đô la cho khả năng tính toán là quá cao. Nhưng Altman muốn đẩy nhanh tiến độ cho quý 4 năm nay. Điều kỳ quặc? Friar không còn báo cáo trực tiếp cho Altman nữa. Từ tháng 8 năm 2025, cô báo cáo cho Fidji Simo, CEO mảng kinh doanh ứng dụng. Và Simo đã nghỉ phép từ tuần trước.

Một cựu thành viên hội đồng mô tả Altman như sau: anh ta có mong muốn cực kỳ lớn trong việc làm hài lòng khi gặp mặt trực tiếp, nhưng đồng thời lại có thái độ gần như xã hội bệnh lý với hậu quả của việc lừa dối. Hiếm có sự kết hợp như vậy. Nhưng đối với một người bán hàng? Đó là tài năng hoàn hảo. Thậm chí các giám đốc điều hành của Microsoft cũng không chịu nổi nữa, nói rằng Altman "bóp méo sự thật, phá vỡ lời hứa và liên tục hủy bỏ các thỏa thuận". Một người còn so sánh với Bernie Madoff hoặc SBF.

Vậy tại sao điều này lại quan trọng đến vậy? Bởi vì OpenAI không phải là một công ty công nghệ bình thường. Họ đang phát triển công nghệ có thể tái cấu trúc nền kinh tế toàn cầu, tạo ra vũ khí sinh học quy mô lớn hoặc tiến hành các cuộc tấn công mạng. Tất cả các cơ chế an toàn hiện nay đều gần như mang tính hình thức. Sứ mệnh phi lợi nhuận đã biến thành cuộc đua IPO. Cựu nhà khoa học trưởng coi Altman là không đáng tin cậy. Người phụ trách an toàn đã rời đi và thành lập Anthropic vì những khác biệt cơ bản về cách phát triển AI.

Gary Marcus, giáo sư về AI tại NYU, sau đó viết: nếu một mô hình tương lai của OpenAI có thể tạo ra vũ khí sinh học hoặc các cuộc tấn công mạng thảm khốc, bạn có thực sự cảm thấy an toàn khi để Altman quyết định một mình có nên phát hành hay không?

Phản hồi của OpenAI? Cơ bản là họ bỏ qua các cáo buộc cụ thể, không phủ nhận các bản ghi nhớ, chỉ đặt câu hỏi về lý do của các nguồn tin. Altman không trả lời trực tiếp.

Mười năm của OpenAI trong một đoạn: nhóm các nhà lý tưởng thành lập một tổ chức phi chính phủ lo lắng về rủi ro của AI, đạt được tiến bộ đáng kể, thu hút vốn lớn, vốn đòi lợi nhuận, sứ mệnh nhường chỗ, đội ngũ an toàn bị giải thể, những người bất đồng bị đuổi, cấu trúc phi lợi nhuận biến thành tổ chức có lợi nhuận, hội đồng có thể chấm dứt công ty bây giờ lại đầy các đồng minh của CEO. Hơn trăm nhân chứng dùng cùng một từ để mô tả nhân vật chính: "không bị giới hạn bởi sự thật". Và giờ đây đang tiến tới IPO với định giá trên 850 tỷ đô la.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim