Эксперты выражают опасения по поводу управляемости будущих систем ИИ
Общество   4 Ноябрь 2023

Эксперты выражают опасения по поводу управляемости будущих систем ИИ

Накануне первого мирового саммита, посвященного безопасности ИИ, эксперты, в том числе ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, известный когнитивист Гари Маркус, а также член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер, подписали открытое письмо. В нем содержится призыв к «разработке и ратификации договора о безопасности ИИ, который получит широкое одобрение во всем международном сообществе, созданию рабочей группы на Саммите по безопасности ИИ в Великобритании при широкой международной поддержке для разработки плана для этого.”

Такой международный договор о безопасности ИИ должен включать несколько основных компонентов, в том числе:

●          Всемирные ограничения на объем вычислений для обучения какой-либо модели ИИ.

●          “ЦЕРН” по безопасности ИИ: масштабное совместное объединение ресурсов, опыта и знаний в деле безопасности ИИ.

●          Комиссию по соблюдению договора: она должна отвечать за мониторинг соблюдения договора, ее роль должна быть аналогична роли Международного агентства по атомной энергии (МАГАТЭ).

Целями такого договора являются:

●          Снижение катастрофических рисков, которые системы искусственного интеллекта представляют для человечества, путем предотвращения бесконтрольного масштабирования возможностей искусственного интеллекта.

●          Обеспечение доступа к благам ИИ для всех людей.

Эта коалиция научных экспертов, лидеров бизнеса и государственного управления примечательна тем, что находится в авангарде международного регулирования ИИ: некоторые из подписавшихся лиц входят в Консультативный орган высокого уровня ООН по ИИ или входят в число немногих избранных экспертов, приглашенных на Международный саммит по безопасности ИИ, который состоялся в Лондоне 1 и 2 ноября 2023 года.

Китайский учёный Йи Цзэн заявил: «Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться». Йи Цзэн добавил: «Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади».

Инициативу открытого письма возглавил британский прогнозист Толга Билге.




Что в трендах
Теги
АктивныйОтдыхЗимой Антон Немкин беспилотные технологии бизнес и экология больше хороших новостей больше позитивных новостей черная икра ДА ЕАЭС экология электромобили электросамолёты электротранспорт Эмоциональный ИИ гранты хорошая новость хорошая новость Россия хорошие не новости хорошие новости хорошие новости для туристов хорошие новости экономики хорошие новости из Африки хорошие новости из Англии хорошие новости из Австралии хорошие новости из Европы хорошие новости из Франции хорошие новости из Китая хорошие новости из Мексики хорошие новости из США хорошие новости из Великобритании хорошие новости медицина хорошие новости науки хорошие новости про экологию хорошие новости про электротранспорт хорошие новости про космос хорошие новости России хорошие новости в Европе хорошие новости в мире хорошие советы игры игры бесплатно ИИ интересные исследования искусственный интеллект исследование космоса исследования животных история России КА календарь КатаниеНаСанках КатаниеНаТюбингах казахстан киргизия космос ЛедянкиВМоскве лонгрид Мазуркевич Сергей Леонидович Мирожская икона Божией Матери многобукв МосковскиеПарки национальные проекты России научные исследования неплохие новости новости Египта новости экологии новости экономики новости из Австралии новости из германии новости из Китая новости из Японии новости культуры новости медицины новости от НАСА новости про беспилотники новости про ChatGPT новости про электрокары новости про космос новости про науку новости робототехники новости Саудовской Аравии новые материалы новые технологии одкб партия дела погода позитив из Австралии позитив из Европы позитив из Индии позитив из России позитив из США позитив про животных позитивное видео позитивные истории позитивные новости позитивные новости экологии позитивные новости Италии позитивные новости из Европы позитивные новости Китая позитивные новости культуры позитивные новости науки позитивные новости России позитивные новости страны позитивные новости в мире позитивные новости в науке православные праздники производство в России промышленность России просто хорошая новость просто хорошие новости путин Распад Советского Союза российские компании российские разработки Россия Ростов и область Санкт-Петербург северный поток социальные проекты в России сокращение углеродной зависимости сокращение выбросов CO сокращение загрязнения окружающей среды спг технологии GPT только факты ТПП РФ устойчивая экономика валдай возобновляемые источники энергии забавная реклама забавные новости защита экологии защита животных зеленая экономика зеленая энергетика ЗимниеГоркиМосква ЗимниеРазвлечения ЗимнийОтдыхВСтолице 204
ПрессРелизы.Ру

Непрерывный поток актуальных новостей 24/7. Пресса о жизни и для жизни, обо всём, что происходит вокруг.

Новостной пресс-релизный портал ПрессРелизы.Ру