Может ли искусственный интеллект стать опасным для человека? Объясняет эксперт

Дата публикации: 30.03.2023

Общество

Профессор ВШЭ Евгений Зараменских рассказал о риске неконтролируемой работы нейросетей.

 

Достижения ученых в области искусственного интеллекта поражают воображение. На фоне новостей о том, что ИИ притворился слепым и обошел систему CAPTCHA, нейросеть сгенерировала прогноз погоды, и других невольно задаешься вопросом, не станет ли опасным для человека столь стремительное развитие технологий. В США известные эксперты в области технологий даже написали открытое письмо к коллегам, призывая остановить на время разработку нейросети пятого поколения.

 

В беседе с РИА ФАН профессор, руководитель департамента бизнес-информатики Высшей школы бизнеса НИУ ВШЭ Евгений Зараменских рассказал о рисках и угрозах для человечества от неконтролируемой работы систем на базе искусственного интеллекта.

 

По словам эксперта, ряд зарубежных ученых-компьютерщиков прогнозируют катастрофические последствия применения технологий ИИ вплоть до уничтожения человечества. Применение подобных технологий в сфере обороны вызывает тревогу и у военных специалистов. Однако, по мнению профессора Зараменских, подобные идеи, скорее, похожи на сценарий фантастического фильма.

 

«Любое ИИ-решение — это программный код, который запускается и исполняется аппаратным обеспечением: серверами, мощными компьютерами и прочим. У человека в любом случае останется контроль над физическим миром, в котором у этого аппаратного обеспечения есть кнопка выключения. И ни одна программа, даже самая «умная», не сможет нажать ее самостоятельно. А сценарий, при котором роботы на базе ИИ будут защищать эту кнопку от человека, на текущий момент нереализуем ввиду слабого развития робототехники», — отметил собеседник ФАН.

 

В обозримом будущем, по мнению ученого, может появиться децентрализованный ИИ, который частично будет исполняться на пользовательских устройствах. Но даже сегодня крупные компании-производители смартфонов и ноутбуков имеют возможность удаленно заблокировать устройства, поэтому даже децентрализованный ИИ быстро потеряет большую часть своих вычислительных мощностей, если станет представлять угрозу для человечества.

 

В тоже время специалист представил более реалистичный сценарий, когда использование решений на базе ИИ может закончиться катастрофой.

 

«При автоматизации процессов на базе алгоритмов разработчики имеют достаточно четкое представление о том, какие действия и при каких условиях будут выполняться программой. Но в случае с ИИ это не так: разработчик условного ChatGPT не может предсказать текст, который будет сгенерирован в ответ на запрос пользователя. Поэтому попытки автоматизировать при помощи ИИ управление транспортом, медицинскими устройствами, электростанциями и прочим в ряде случаев действительно могут закончиться трагедией», — заключил профессор Высшей школы бизнеса НИУ ВШЭ.

Возможно вас заинтересует