Соціальні мережі показали нам один шлях: максимізувати залучення, збирати увагу, отримувати прибутки — і залишати суспільство розгрібати побічні наслідки. Дезінформація поширювалася як пожежа, психічне здоров'я погіршувалося, і чесно кажучи, ніхто не виграв, окрім акціонерів.
Але ось у чому справа: штучний інтелект не обов’язково має повторювати цю помилку. Ми фактично маємо шанс побудувати обмежувальні рамки на ранніх етапах, обдумати наслідки перед тим, як вони вибухнуть у нашому обличчі. Чи то рамки управління, вимоги до прозорості, чи просто відмова оптимізувати виключно під метрики залучення — технологічна спільнота могла б обрати інші пріоритети з самого початку.
Питання не в тому, чи буде штучний інтелект потужним. Він буде. Питання в тому, чи готові ми вчитися на помилках соціальних мереж, чи просто будемо повторювати той самий екстрактивний модель.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
13 лайків
Нагородити
13
8
Репост
Поділіться
Прокоментувати
0/400
GateUser-9ad11037
· 01-18 08:49
Чесно кажучи, ця частина звучить ідеалістично, але я не дуже вірю. Tech bros зараз говорять гарно, але в кінці кінців вони все одно кланяються перед грою.
Переглянути оригіналвідповісти на0
SerNgmi
· 01-17 19:04
Соціальні медіа та той спосіб обдирання «цибульок» дійсно вражає, тепер черга AI повторити цю ж долю, мабуть
---
Не витрачайте час на ті високопарні «охоронні» заходи, капітал все ще капітал, і в кінці кінців все заради грошей
---
Добре, я просто хочу побачити, чи дійсно вони зроблять висновки цього разу, але особисто я не сподіваюся
---
Головне питання — це те, що tech community взагалі не має мотивації змінюватися, прибутки стоять на місці, хто ж захоче їх втратити
---
Говорять гарно, але коли дійде до реального виконання, shareholders все одно будуть тиснути і тертися об землю
---
Насправді все не так складно, просто той, хто заробить достатньо грошей, і захоче бути хорошою людиною
---
Знову починають говорити про рамки governance? Прокиньтеся, у ринковій логіці це безглуздо
---
В кінці кінців все залежить від регулювання, саморегуляція tech? Мрії
---
Вимоги до прозорості звучать так само смішно, як і жарт
---
Згадалося Facebook того часу, був схожий, а зараз? Жодних змін
Переглянути оригіналвідповісти на0
ImpermanentLossEnjoyer
· 01-16 03:30
Соціальні мережі та сценарії збирання грошей на лохів дійсно не можна повторювати знову, але я ставлю п’ять доларів, що AI цього разу знову повторить
---
Говорячи просто, все залежить від того, чи готові техно-гіганти відмовитися від тих даних engagement, що вони мають, ймовірно, знову буде обіцянка
---
Ось це так, хіба не історія, що повторюється? Кого знову знімуть у наступному раунді
---
Прозорість? Рамки управління? Ці слова щоразу кричать, але в кінці кінців все зводиться до того, що інтереси важливіші за все
---
Раннє створення guardrails звучить непогано, але боязно, що знову скажуть "ми не передбачили"
Переглянути оригіналвідповісти на0
PumpAnalyst
· 01-16 03:29
Подивіться, ця стаття досить правильно висвітлює ситуацію, але мушу сказати чесно — проектні команди голосно кричать про "створення огорожі", а потім одразу починають збирати ріпу[роздум]
Методи залучення в соціальних мережах давно вже зжили себе, і тепер AI робить те саме? З технічної точки зору, все це спрямовано на максимізацію engagement і збору даних, нічим не відрізняється від минулого
Не хочу знеохочувати всіх, але я ще не бачив проектних команд, які справді готові відмовитися від оптимізації показників engagement
Ми всі зрозуміли цю схему соціальних мереж, тепер лише чекаємо, чи AI не повторить помилки... Я ставлю на те, що так і буде
Чи можна змінити? Насправді це все маячня, без вигідного стимулу ніхто й гадки не має будувати якісь огорожі
Знову режим вампіра, просто змінили назву
Переглянути оригіналвідповісти на0
BTCWaveRider
· 01-16 03:17
Соціальні мережі, ті ігри з збором трафіку, обманом і перекладанням провини на суспільство — якщо AI знову повторить це, ми справді опинимося в біді... Це цілком правильно, зараз ще є шанс змінити ситуацію, все залежить від того, чи готові техно-гіганти відмовитися від тієї частки прибутку.
Але... ти наважишся поставити ставку, що вони справді оберуть інший шлях?
Чи зможе AI уникнути цієї пастки, я ставлю під сумнів.
Знову ті ж обіцянки, почекаємо, поки не з’являться справжні гроші і вигоди, тоді й подивимося.
Соціальні мережі показали нам один шлях: максимізувати залучення, збирати увагу, отримувати прибутки — і залишати суспільство розгрібати побічні наслідки. Дезінформація поширювалася як пожежа, психічне здоров'я погіршувалося, і чесно кажучи, ніхто не виграв, окрім акціонерів.
Але ось у чому справа: штучний інтелект не обов’язково має повторювати цю помилку. Ми фактично маємо шанс побудувати обмежувальні рамки на ранніх етапах, обдумати наслідки перед тим, як вони вибухнуть у нашому обличчі. Чи то рамки управління, вимоги до прозорості, чи просто відмова оптимізувати виключно під метрики залучення — технологічна спільнота могла б обрати інші пріоритети з самого початку.
Питання не в тому, чи буде штучний інтелект потужним. Він буде. Питання в тому, чи готові ми вчитися на помилках соціальних мереж, чи просто будемо повторювати той самий екстрактивний модель.