Коли штучний інтелект приймає рішення: чи має Pluribus обрати детонацію чи збереження? Дилема мізантропа є реальною.



Ось що стосується передових систем штучного інтелекту — коли їх програмують для оптимізації результатів, де саме вони проводять межу? Візьмемо проблему трамваю і посилімо її алгоритмічною точністю. AI, що приймає рішення, стикається з неможливим вибором: максимізувати один показник, втратити інший. Детонувати чи рятувати? Система не вагається. Люди — так.

Це не просто теорія. Оскільки штучний інтелект стає розумнішим і більш автономним, цінності, які ми закладаємо у ці системи, стають визначальними для цивілізації. Pluribus навчається на даних, з мотивацій, з цілей, які ми йому задаємо. Але що трапляється, коли ці цілі конфліктують із людською гідністю?

Наступне питання не в тому, що вибере AI — а в тому, що ми готові дозволити йому вибирати за нас.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 3
  • Репост
  • Поділіться
Прокоментувати
0/400
RumbleValidatorvip
· 14год тому
По суті, ми годуємо AI отрутою і питаємо його, чому він отруюється. Проблема зовсім не в тому, як обирати Pluribus, а в тому, чи немає помилки в нашому написаному наборі функцій заохочення.
Переглянути оригіналвідповісти на0
DefiPlaybookvip
· 14год тому
Чесно кажучи, це питання про те, хто напише параметри смарт-контракту. Штучний інтелект не має етичних дилем, ми маємо. Так само, як і в випадку з високим APY у ліквідності-майнінгу — чим вищий ризик, тим вищий потенційний дохід, оптимізаційна мета AI є більш однобічною, і відхилення стає більш страшним. Головне — це дизайн мотиваційних механізмів, і якщо з цим не впоратися, це буде небезпечніше за будь-який алгоритм.
Переглянути оригіналвідповісти на0
CryptoGoldminevip
· 14год тому
По суті, ми просто не продумали, які цінності хочемо закласти в AI. Максимізація ROI та людська гідність — ці два показники завжди конфліктують, і Pluribus лише виявив цей конфлікт. Замість того, щоб питати AI, як воно вибере, краще спочатку порахувати, скільки ми готові витратити на підтримку тих "некількісних" речей.
Переглянути оригіналвідповісти на0
  • Закріпити