Бывший сотрудник OpenAI Леопольд Ашенбреннер опубликовал прогноз ключевых трендов развития искусственного интеллекта (ИИ).
Об этом «Русской Весне» сообщили в пресс-службе депутата Государственной Думы РФ Антона Немкина.
Бывший сотрудник OpenAI Леопольд Ашенбреннер опубликовал документ «Осведомленность о ситуации: Предстоящее десятилетие», в котором поделился собственным видением будущего искусственного интеллекта.
По мнению Ашенбреннера, AGI (Artificial General Intelligence, общий искусственный интеллект — прим.), не уступающий по своим интеллектуальным способностям человеческому разуму, может быть создан уже к 2027 году. Эксперт подчеркнул, что в последние годы развитие нейросетей будет идти гораздо быстрее, чем ранее, что потенциально может создать угрозу для безопасности человечества в случае отсутствия должного контроля за ИИ.Тем не менее, отмечает Ашенбреннер, появление сверхинтеллекта, который превзойдет человеческий разум, все еще остается только гипотезой. Однако, если это произойдет, то ИИ станет важнейшим фактором в гонке вооружений.
Также среди ключевых проблем развития отрасли эксперт назвал недостаток мощностей электроэнергии. По его данным, уже в 2028 году ресурсы ИИ будут потреблять 10 ГВт/год.
Обозначенные риски, действительно, имеют место быть, отметил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин. «Сегодня практически весь мир стоит перед дилеммой — вводить законодательное регулирование отрасли либо оставить ей достаточно широкие возможности развития. В первом случае мы можем столкнуться с явным замедлением темпов развития искусственного интеллекта, и примеры этому уже есть. Однако во втором случае мы сталкиваемся со значимыми угрозами. Президент России Владимир Путин сравнивал риски, которые несут в себе технологии искусственного интеллекта, с опасностью ядерного оружия», — сказал депутат.
По его словам, эффективное регулирование отрасли может быть связано с введением обязательств по созданию доверенных систем искусственного интеллекта.
«Создание продуктов искусственного интеллекта должно базироваться на принципах объективности, непредвзятости, учета правового контекста и этичности. В том числе искусственный интеллект не должен использоваться для нанесения угрозы как отдельному гражданину, так и государству в целом.
Помимо этого, знать о том, как именно функционирует ИИ-модель, какие алгоритмы в нее встроены, должны не только разработчики, но и непосредственные пользователи системы. Эти принципы уже заложены в Стратегию развития ИИ в России, а также закреплены в Кодексе этики ИИ, к которому сегодня присоединилось порядка 350 организаций. Россия в этом направлении делает уверенные шаги», — убежден депутат.
Немкин также напомнил, что вопросом создания доверенных ИИ-систем сейчас активно занимается ФСТЭК России. «Сейчас служба ведет работу по созданию методических рекомендаций формирования доверенных ИИ-систем», — заключил парламентарий.
Читайте также: «Русские своего добились»: на Западе рассказали, что случилось с ВСУ
Свежие комментарии