Các công cụ tạo hình ảnh bằng trí tuệ nhân tạo tiếp tục đối mặt với các chính sách nội dung ngày càng nghiêm ngặt hơn. Một cập nhật gần đây tiết lộ rằng một số trợ lý AI đang triển khai các biện pháp bảo vệ mới để ngăn chặn việc lạm dụng khả năng chỉnh sửa hình ảnh. Cụ thể, công nghệ này sẽ từ chối các yêu cầu tạo hoặc chỉnh sửa hình ảnh mô tả các cá nhân thực trong các bối cảnh không phù hợp hoặc phản cảm, đặc biệt ở những khu vực pháp lý mà việc tạo nội dung như vậy có thể vi phạm luật địa phương.



Động thái này phản ánh sự căng thẳng ngày càng tăng giữa đổi mới AI và tuân thủ quy định pháp luật. Khi các công cụ AI trở nên mạnh mẽ và dễ tiếp cận hơn, các nhà phát triển đang chủ động xây dựng các hàng rào đạo đức để tránh rủi ro pháp lý và tổn hại tiềm tàng. Các hạn chế này nhằm vào một loại lạm dụng cụ thể—nội dung deepfake liên quan đến hình ảnh thân mật không có sự đồng ý—một lĩnh vực mà nhiều quốc gia đã ban hành hoặc đang xem xét luật pháp.

Những điều chỉnh chính sách như vậy cho thấy ngành công nghiệp AI đang điều hướng trong bối cảnh phức tạp của việc kiểm duyệt nội dung và trách nhiệm pháp lý. Dù qua các biện pháp tự nguyện hay áp lực từ quy định, các công ty công nghệ ngày càng phải cân bằng giữa khả năng và trách nhiệm giải trình.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 3
  • Đăng lại
  • Retweed
Bình luận
0/400
WagmiAnonvip
· 10giờ trước
Ồ, lại là cái lối cũ rồi... AI nói không được thì không được, dù sao cuối cùng vẫn là công nghệ bị kiểm soát chết đi
Xem bản gốcTrả lời0
DeFiVeteranvip
· 11giờ trước
nah này thực sự sẽ được quản lý chặt chẽ hơn, không thể làm những thứ không đáng tin cậy nữa deepfake thực sự cần có người kiểm soát, nếu không mọi thứ sẽ rối tung Nói thẳng ra là do tiền gây ra rắc rối, khi pháp luật vào cuộc thì phải tuân thủ Lại một đợt "tự nguyện tự giác", chẳng mấy ai tin vào bộ này đâu Việc kiểm duyệt ngày càng chặt chẽ, không gian sáng tạo lại càng ít...
Xem bản gốcTrả lời0
zkProofInThePuddingvip
· 11giờ trước
ngl lần này các nhà cung cấp AI thật sự đã bị kiểm soát chặt chẽ rồi... Nói trắng ra là không muốn mất tiền Nói về phần deepfake thì đã đến lúc phải xử lý rồi, nhưng cắt bỏ toàn bộ như vậy có thể sẽ làm hỏng cả những mục đích sử dụng bình thường sao? Lại là một vòng "tự kiểm duyệt", dù sao cuối cùng người chịu thiệt vẫn là tự do của người dùng Cảm giác con đường AI ngày càng hẹp lại, mâu thuẫn giữa sáng tạo và pháp luật không dễ dàng điều hòa hơn nữa
Xem bản gốcTrả lời0
  • Ghim