https://ai-news.ru/2025/05/kratkij_obzor_knig_i_statej_pro_lubimuu_temu_vsej_planety_iskusstvennyj.htmlКраткий обзор книг и статей про любимую тему всей планеты – Искусственный интеллект
2025-05-13 11:37
Искусственный интеллект развивается со сверхзвуковой скоростью, и все беспокоится о растущем AGI (Artificial General Intelligence), о сверхразуме, способном превзойти человека.
Существует четыре фактора, которые способствуют этой бешеной скорости инноваций:
• во-первых, конкуренция (тот, кто придет первым, монетизирует созданную стоимость, как OpenAI, оцениваемая в триста миллиардов долларов)
• законы масштабирования (производительность повышается по мере увеличения объема данных и вычислительной мощности)
• алгоритмические инновации за счет совершенствования методик обучения и базовых архитектур
• использование все более огромных наборов данных.
Команда Anthropic выразила это в статье «Предсказуемость и неожиданность в крупных генеративных моделях», опубликованной в октябре 2022 года, говоря об отсутствии стандартов и нормативных моделей: «Мы, в определенном смысле, строим самолет, пока он взлетает».
Соучредитель Anthropic Дарио Амодеи и еще шесть основателей покинули OpenAI и сегодня работают над созданием безопасного для человека ИИ, который станет «примером» для других моделей.
Anthropic разработала дополнительный протокол безопасности под названием Responsible Scaling Policy (RSP), который устанавливает иерархию уровней риска для систем ИИ, немного похожую на шкалу Defcon, которая указывает на степень готовности вооруженных сил. Клод (его система) находится на втором уровне безопасности ИИ: ему необходим подход, позволяющий реагировать на первые признаки опасных возможностей, таких как выдача инструкций по созданию биологического оружия или взлому систем. Даниэла Амодеи (сестра Дарио и основательница Anthropic) объясняет этот процесс: «По сути, это своего рода версия Клода, наблюдающего за Клодом». На третьем уровне системы начинают функционировать автономно.
Google применила схожую структуру в Gemini, и, по словам Демиса Хассабиса, который возглавляет Google в области искусственного интеллекта, Anthropic послужил источником вдохновения для моделирования ответственного ИИ. «Если мы объединимся, то и другие присоединятся, и внезапно у нас появится критическая масса», —Хассабис.
Через три месяца после того, как Anthropic представила свою политику ответственного масштабирования, OpenAI анонсировала свою структуру, направленную на устранение потенциальных рисков, связанных с передовыми возможностями ИИ. А в феврале 2025 года Meta Platforms также выпустила свою версию.
Леопольд Ашенбреннер, гений в области искусственного интеллекта, с отличием окончивший в возрасте девятнадцати лет Колумбийский университет по специальности «математика-статистика и экономика», а также бывший исследователь OpenAI под руководством своего наставника Ильи Суцкевера, опубликовал в июне 2024 года статью объемом в сто шестьдесят пять страниц о рисках и разработках искусственного интеллекта.
Ашенбреннер исследует научные, моральные и стратегические вопросы, связанные с AGI, проливая свет на будущее, которое одновременно многообещающе и потенциально опасно, и намечает возможный путь к AGI к 2027 году, основываясь на текущих темпах развития вычислительной мощности и эффективности алгоритмов.
Учитывая глобальный характер развития ИИ, Ашенбреннер подчеркивает важность международного сотрудничества и управления, предлагая создать международные соглашения и регулирующие органы для надзора за развитием ИИ, повышения прозрачности и обеспечения справедливого распределения выгод. В документе говорится: «Будем ли мы доминировать над сверхразумом или он будет доминировать над нами?»
Сам Суцкевер, ныне глава стартапа в области искусственного интеллекта Safe Superintelligence, стоимость которого оценивается в тридцать два миллиарда долларов, написал в своем знаменитом посте на X в 2023 году: «Если вы цените интеллект больше всех других человеческих качеств, вам придется несладко».
Авторитетные ученые, такие как Родни Аллен Брукс, бывший директор Лаборатории компьютерных наук и искусственного интеллекта (CSAI) Массачусетского технологического института, утверждают, что опасения по поводу сверхинтеллекта преувеличены и преждевременны.
Янн Лекун, лауреат премии Тьюринга 2018 года и главный научный сотрудник по искусственному интеллекту в Meta, считает, что искусственный интеллект может быть мощным, но контролируемым: «Страх перед сверхинтеллектом преждевременный, это все равно, что беспокоиться о перенаселении Марса».
Гэри Фред Маркус, почетный профессор психологии и нейронаук Нью-Йоркского университета и автор книги «Перезагрузка ИИ» (2019), скептически относится к нынешним возможностям искусственного интеллекта и критикует его апокалиптический настрой. В статье в Financial Times в январе 2025 года он писал: «Мы далеки от понимания того, как создать AGI. Идея о том, что он может нас уничтожить, — это скорее философия, чем наука».
Очень интересный проект, финансируемый Соединенным Королевством, под названием Safeguarded AI, направленный на создание системы ИИ, которая сможет проверять безопасность других систем ИИ. Проект, на который будет выделено 59 миллионов фунтов стерлингов, финансируется Агентством передовых исследований и изобретений Великобритании (ARIA) — правительственным агентством, созданным в январе 2023 года для инвестирования в потенциально революционные научные исследования.
Йошуа Бенджио, лауреат премии Тьюринга 2018 года и один из «крестных отцов» современного искусственного интеллекта, участвует в проекте и подчеркивает: «Сейчас мы движемся к туману, за которым может быть пропасть. Нам нужно создать инструменты, чтобы рассеять этот туман и убедиться, что мы не пересечем пропасть, если она есть. Сложность передовых систем означает, что у нас нет выбора, кроме как использовать ИИ для защиты ИИ».
Мустафа Сулейман, соучредитель DeepMind, в своей последней книге «Грядущая волна» (2023) о «сдерживании» ИИОН пишет: «Это монументальная задача, исход которой определит, без преувеличения, качество и характер повседневной жизни в этом столетии и далее. Риски неудачи трудно себе представить, но мы должны их встретить. Однако награда велика: не что иное, как безопасное и длительное процветание нашего драгоценного вида. За это стоит бороться».
Источник: vk.com