Khi AI đưa ra quyết định: Liệu Pluribus có nên chọn nổ hoặc bảo tồn? Thử thách của kẻ ghét loài người là có thật.



Điều về các hệ thống AI tiên tiến—khi chúng được lập trình để tối ưu hóa kết quả, chúng thực sự vạch ra giới hạn ở đâu? Lấy ví dụ về vấn đề xe điện và tăng cường nó bằng độ chính xác thuật toán. Một AI ra quyết định đối mặt với một lựa chọn không thể tránh khỏi: tối đa hóa một chỉ số, mất đi một chỉ số khác. Nổ hoặc cứu? Hệ thống không do dự. Con người thì có.

Điều này không chỉ mang tính lý thuyết. Khi AI ngày càng thông minh và tự chủ hơn, các giá trị chúng ta tích hợp vào các hệ thống này trở thành định hình nền văn minh. Pluribus học hỏi từ dữ liệu, từ các động lực, từ các mục tiêu chúng ta cung cấp. Nhưng điều gì xảy ra khi những mục tiêu đó mâu thuẫn với nhân phẩm con người?

Câu hỏi thực sự không phải là AI sẽ chọn gì—mà là chúng ta sẵn sàng để nó chọn gì thay cho chúng ta.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 3
  • Đăng lại
  • Retweed
Bình luận
0/400
RumbleValidatorvip
· 11giờ trước
Nói một cách đơn giản, chúng ta đang cung cấp độc dược cho AI rồi hỏi tại sao nó lại bị ngộ độc, vấn đề không nằm ở cách chọn Pluribus, mà là trong bộ hàm thưởng mà chúng ta đã viết có thể có lỗi.
Xem bản gốcTrả lời0
DefiPlaybookvip
· 11giờ trước
Thành thật mà nói, đây chính là câu hỏi ai sẽ viết các tham số của hợp đồng thông minh. AI không có khó khăn đạo đức, chúng ta có. Giống như APY của khai thác thanh khoản càng cao thì rủi ro càng lớn, mục tiêu tối ưu của AI càng đơn giản, độ lệch càng đáng sợ. Chìa khóa vẫn là thiết kế cơ chế khuyến khích, nếu không làm tốt phần này, nó còn nguy hiểm hơn bất kỳ thuật toán nào.
Xem bản gốcTrả lời0
CryptoGoldminevip
· 12giờ trước
Nói một cách đơn giản, chúng ta chưa bao giờ nghĩ rõ ràng về giá trị mà mình muốn khi cài đặt giá trị cho AI. Hai chỉ số tối đa hóa ROI và nhân phẩm luôn mâu thuẫn, Pluribus chỉ đơn giản là tính ra được mâu thuẫn này mà thôi. Thay vì hỏi AI chọn cái nào, tốt hơn hết là chúng ta hãy tính xem chúng ta sẵn lòng bỏ ra bao nhiêu chi phí để duy trì những thứ "không thể đo lường" đó.
Xem bản gốcTrả lời0
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$3.52KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$3.51KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$3.53KNgười nắm giữ:2
    0.00%
  • Vốn hóa:$3.56KNgười nắm giữ:2
    0.00%
  • Vốn hóa:$3.53KNgười nắm giữ:2
    0.04%
  • Ghim