Байден обсудит с экспертами риски, связанные с искусственным интеллектом

Во вторник президент Джо Байден обсудит в Белом доме «риски и возможности», которые искусственный интеллект (ИИ) представляет для общества и сферы национальной безопасности. Обсуждение состоится в ходе заседания Президентского совета по науке и технологиям (PCAST).

«Президент обсудит значение защиты прав и безопасности для обеспечения ответственных инноваций и надлежащих гарантий», – говорится в заявлении представителя Белого дома, распространенном в преддверии встречи.

Президент призовет Конгресс принять двухпартийный закон о конфиденциальности, чтобы защитить детей и ограничить сбор персональных данных, которые технологические компании собирают обо всех нас, сообщил представитель администрации Байдена.

Встреча в Белом доме указывает на неотложность проблемы и внимание к ней администрации Байдена. Проблемы искусственного интеллекта оказались в центре внимания, поскольку технология стала доступна рядовым американцам благодаря чат-боту ChatGPT – 4.

Цены на акции компаний, использующих технологии, базирующиеся на искусственном интеллекте, существенно упали в преддверии совещания, хотя во вторник на рынке акций также наблюдалось падение.

Обсуждение всех аспектов внедрения искусственного интеллекта становится горячей темой для политиков в США.

Организация, занимающаяся этическими проблемами внедрения искусственного интеллекта, – Центр искусственного интеллекта и цифровой политики, обратилась в Федеральную торговую комиссию с просьбой запретить OpenAI выпускать новые коммерческие выпуски чатбота GPT-4, который уже поразил и ужаснул пользователей пособностью генерировать письменные ответы на запросы.

Сенатор-демократ Крис Мерфи призвал общество сделать паузу, рассматривая возможные последствия внедрения искусственного интеллекта.

Американские законодатели также задают вопросы о влиянии ChatGPT на национальную безопасность и образование.

В прошлом году администрация Байдена выпустила план «Билля о правах» для обеспечения защиты прав пользователей в условиях разработки и внедрения технологическими кампаниями систем искусственного интеллекта.

30 марта гендиректор Tesla и основатель SpaceX Илон Маск вместе с группой экспертов по искусственному интеллекту и руководителей отрасли написал открытое письмо с призывом взять шестимесячную паузу в разработке систем, более мощных, чем недавно запущенный OpenAI GPT-4 из-за потенциальных рисков для общества.

Письмо подписали более 1000 человек, включая самого Маска. Сэм Альтман, исполнительный директор OpenAI, а также Сундар Пичаи и Сатья Наделла (генеральные директора Alphabetи Microsoft) письмо не подписали.

Среди подписавших письмо – генеральный директор Stability AI Эмад Мостак, исследователи из принадлежащей Alphabet компании DeepMind, а также выдающиеся специалисты в области искусственного интеллекта Йошуа Бенгио, которого часто называют одним из «крестных отцов искусственного интеллекта», и Стюарт Рассел, один из первых исследователей в этой области.

«Мощные системы искусственного интеллекта должны разрабатываться только тогда, когда мы уверены, что их эффект будет положительным, а риски – управляемыми», – говорится в документе. Там также отмечается, что «такие решения не должны быть делегированы не избираемым лидерам технологических компаний».

В письме также задаются вопросы: «Должны ли мы позволять машинам наводнять наши информационные каналы пропагандой? Должны ли мы развивать ИИ, который вконце концов… превзойдет нас, перехитрит, сделает нас ненужными и заменит нас?»

Полиция ЕС – Европол уже предупредила о потенциальном использовании систем искусственного интеллекта в попытках фишинга, дезинформации и киберпреступности.

Ранее в марте компания OpenAI при поддержке Microsoft представила четвертую итерацию своей программы AI GPT (Generative Pre-trained Transformer), которая поразила пользователей естественной беседой, сочинением песен и написанием кратких резюме на основе длинных документов.

Понравилась статья? Поделиться с друзьями:
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: