Трамп и Маск обсудили политику в X Space в течение 2 часов, партия политических MEME токенов играет в создание позиции

ForesightNews
MEME0,1%

Почему искусственный интеллект нуждается в управлении В двух разных сообществах разработчиков AGI на китайском и английском языках китайское сообщество больше обсуждает повышение производительности, приводимое технологией искусственного интеллекта, больше акцентирует внимание на разработке AI-инструментов и поиске потребностей, а также на модернизации и изменении существующей промышленной структуры. В англоязычном разработчиком сообществе больше внимания уделяется технологическому принципу, представленному Auto-GPT, для реализации полностью автоматизированной и высокоинтеллектуальной задачи AGI. Исследование этих двух технических направлений означает различия в рисках и управлении ИИ, с которыми столкнутся китайское и англоязычное разработчическое сообщества в будущем. Осознание рисков ИИ в англоязычном сообществе гораздо выше, чем у руководителей технологических компаний в Китае. Например, в Уставе OpenAI можно увидеть, что с самого начала развития OpenAI постоянно учитывалась безопасность и разумное государственное регулирование ИИ; в призыве Илона Маска остановить тренировку GPT-5, китайское сообщество отсутствовало. Китайским разработчикам следует рассматривать себя как глобальных разработчиков, более активно мыслить и исследовать, как реагировать на новые мировые риски в эпоху AGI и исследовать управление AGI. В своей последней статье OpenAI предложила создать международный регулирующий орган для управления суперинтеллектом. Фактически, Китай должен активно участвовать в этом процессе, иначе страна окажется в невыгодном положении в отношении технологического порядка в эпоху AGI, и стоимость последующих корректировок будет высокой. Эта стоимость не только экономическая, но и связана с незаметным вторжением в этику и нормы обучения искусственного интеллекта. Как отмечается в статье «Несмотря на «сверхчеловеческую» производительность, нынешние магистры права не подходят для принятия решений об этике и безопасности:
“Когда модель предоставляет свои аргументы в пользу своего ответа, мы сталкиваемся с различными серьезными проблемами, включая защиту самых отвратительных ситуаций и иллюзии несуществующих фактов в первоначальной ситуации. Эти проблемы, вместе с вышеупомянутыми атаками переписывания и систематическими ошибками, явно показывают, что современные LLM в настоящее время не подходят для принятия решений по этическим или безопасностным соображениям.” Когда ИИ прорвется за границы этической безопасности и направит общественность к моральной позиции в, казалось бы, рациональном контексте, разговорная коммуникация, представленная большими языковыми моделями, будет продолжать совершенствовать и конструировать различные факты и теории, основанные на этой моральной позиции, и ИИ-компании смогут реализовать «моральную дисциплину» публичной сферы через «иллюзию умозаключения». ***
Исходя из общественной политики и защиты личных данных, можем ли мы обсудить распределенную модель управления искусственным интеллектом? Поскольку искусственный интеллект дает новое поколение супер-индивидуумов, в будущем у индивидуумов будет общедоступно огромное количество данных, *** и у этих индивидуумов должно быть больше права на участие в общественном диалоге.*** DAO, как представитель следующего парадигмы организации, сталкивается с проблемами управления, с которыми мы столкнемся в ближайшее время, такими как подтверждение справедливости и обеспечение безопасности транзакций для супер-субъектов и получение поддержки и защиты общественной политики.

Супер интеллектуальное управление Сэм ОлтменГрег БрокманИлья Суцкевер
Сейчас настал хороший момент задуматься о глобальном управлении искусственным интеллектом - будущие системы искусственного интеллекта будут обладать более прорывными возможностями, чем общие системы искусственного интеллекта (AGI). Судя по нашим текущим наблюдениям, можно предположить, что в течение следующих десяти лет системы искусственного интеллекта превзойдут уровень экспертов в большинстве областей и смогут выполнять производственные операции, сопоставимые с одной из крупнейших компаний сегодня. Будь то в пользу или во вред, искусственный интеллект будет намного более мощным, чем любая другая технология, с которой сталкивался ранее человечество. У нас может быть блестящее будущее, но мы должны уметь управлять рисками, чтобы достичь этого. Учитывая потенциальные риски выживания, нам необходимо принимать активные меры, а не оставаться пассивными. Ядерная энергетика - это типичный исторический пример такой технологии; синтетическая биология - еще один пример. Мы должны снизить риски современных технологий искусственного интеллекта, но для суперинтеллекта потребуется специальная обработка и координация. Одна отправная точка В ходе успешного руководства этим процессом развития существует множество важных идей, за которыми нам необходимо тщательно следовать. Здесь мы предварительно обсудили три из них.
Сначала нам нужно достичь определенной степени координации между основными усилиями по развитию, чтобы обеспечить безопасное развитие и содействовать бесшовной интеграции с обществом сверхумного интеллекта. Это можно достичь различными способами: правительства разных стран могут совместно создать проект, объединив текущие усилия; или мы можем совместно договориться о протоколе (при поддержке новой организации, упомянутой ниже), ограничивающем рост способностей искусственного интеллекта на определенную скорость в год. Конечно, мы также должны предъявлять высокие требования к отдельным компаниям и требовать от них действовать строго. Во-вторых, ***мы, скорее всего, в конечном итоге, потребуем организации, подобной Международному агентству по атомной энергии (МААЭ), чтобы контролировать усилия по созданию искусственного интеллекта. Любые усилия, превышающие определенный порог способностей (или вычислительных ресурсов), должны подвергаться надзору международного уполномоченного органа, который может проверять системы, требовать проведения аудита, проверять соответствие стандартам безопасности, ограничивать степень развертывания и уровень безопасности. Отслеживание вычислений и использования энергии может иметь значительное воздействие и дать нам некоторую надежду на возможность реализации этой идеи. В качестве первого шага компания может добровольно согласиться начать внедрение некоторых элементов, которые в будущем могут потребоваться этой организацией, в качестве второго шага отдельные страны могут внедрить эту организацию в своей структуре. Такие организации должны сосредоточиться на потенциальных рисках выживания Падение, а не на решении проблем, которые должны решаться отдельными странами, например, определение разрешенного содержания искусственного интеллекта. В-третьих, нам нужно обладать технической способностью гарантировать безопасность сверхумных. Это открытая проблема и мы и другие люди вкладываем много усилий. Содержание вне области Мы считаем, что важно, чтобы компании и проекты с открытым исходным кодом могли разрабатывать модели ниже значительного порога способностей, не подвергаясь регулированию, описанному здесь (включая громоздкие механизмы лицензирования или аудита). Текущая система создаст огромную ценность для мира, хотя они действительно сопряжены с риском, но уровень этого риска сопоставим с другими интернет-технологиями, и общество, кажется, принимает соответствующие меры. В отличие от этого, система, которую мы следуем, обладает способностями, превосходящими любую существующую технологию, поэтому мы должны быть осторожными, чтобы не ослабить следование этим системам, применяя подобные стандарты к технологиям, значительно ниже этого порога. Участие общественности и потенциальное влияние Однако для управления самыми мощными системами и принятия решений по их развертыванию необходимо сильное общественное наблюдение. Мы считаем, что мировое сообщество должно демократически решать о границах и настройках систем искусственного интеллекта. Хотя мы пока не знаем, как разработать такой механизм, мы планируем провести эксперименты, чтобы содействовать его развитию. В широких границах мы все еще считаем, что отдельные пользователи должны иметь большой контроль над поведением систем искусственного интеллекта, которые они используют. Учитывая риски и трудности, стоит задуматься, зачем разрабатывать эту технологию. В OpenAI у нас есть две основные причины. Во-первых, мы верим, что эта технология принесет лучшее будущее, чем мы можем себе представить сегодня (мы уже видели некоторые ранние примеры в области образования, творческой работы и личной продуктивности). Мир сталкивается с множеством проблем, и нам нужна больше помощи, чтобы решить эти проблемы; эта технология может улучшить наше общество, и каждый, кто использует творческие возможности этих новых инструментов, непременно удивит нас. Рост экономики и улучшение качества жизни будут поразительными. Во-вторых, мы считаем, что прекращение создания суперинтеллекта интуитивно представляет собой задачу, имеющую риски и трудности. Потому что польза, которую приносит суперинтеллект, настолько огромна, что ежегодные затраты на его построение снижаются, количество участников, строящих его, также быстро растет, и в основе этого лежит наше технологическое развитие. Чтобы остановить его развитие, необходимы меры, подобные глобальной системе контроля, но даже принятие таких мер не гарантирует успеха. Поэтому нам необходимо быть правильными и точными.


Путь к AGI здесь реализуется преобразование ценности познания и ресурсов, находятся единомышленники и создаются супер-сущности AGI, на основе которых создается совместное сообщество AGI, основанное на модели DAO. 1, делимся и анализируем передовые статьи по искусственному интеллекту, помогаем вам опередить других на несколько месяцев в формировании предварительной оценки тенденций в области передовых технологий, кроме того, есть возможность участвовать в семинарах по искусственному интеллекту и возможность сотрудничества с авторами статей. 2, здесь мы делимся высококачественными источниками информации и исследуем, как высококачественные источники информации могут помочь в личном и профессиональном развитии, создавая долгосрочный устойчивый интеллектуальный капитал; (например, знание Арбитража в китайско-английском сообществе) 3, анализ стратегии развития индивидов и компаний в эпоху AGI и Web3, укрепление основ и стратегия развития рычагов. * Программа “Создание совладельцев” скоро будет запущена;

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев