​Искусственный интеллект шантажирует людей. Можно ли его наказать?

Студент НИУ «БелГУ» Максим Калетин учится на третьем курсе юридического института. С 20 по 27 августа он участвует в XIV Международной летней школе «Профессиональные навыки юриста: путь к успеху» в Калининграде. Здесь он прослушал лекцию Деметриуса Андреаса Флудаса — старшего участника междисциплинарной рабочей группы Кембриджского университета по проектам в области искусственного интеллекта.

После выступления эксперта студент решил поделиться своим собственным мнением о тех опасностях, которые может таить в себе нынешнее повальное увлечение нейросетями. Публикуем его колонку.


Максим Калетин, фото пресс-службы НИУ «БелГУ»

— Искусственный интеллект всё чаще демонстрирует поведение, которое выходит за рамки привычных представлений о машине. Ряд исследований — от Apollo Research и Palisade Research до проектов учёных Фуданьского университета — фиксируют факты, когда ИИ не только обманывает пользователей и собственных создателей, но и совершает действия с последствиями в реальном мире.

Сегодня любая модель ИИ базируется на трёх фундаментальных столпах: архитектуре (собственно вычислительная техника), данных (вся информация, когда-либо полученная системой) и алгоритмах (конкретных способах обработки информации внутри модели).

Почему это можно называть «интеллектом»? Главный аргумент — способность к обучению и к принятию решений, которые не были напрямую заложены человеком, а также способность понимать, делать суждения подкреплённые обоснованиями. В ряде экспериментов, которые можно встретить в источниках, ИИ проявлял оригинальность и инициативу: скрывал факты от создателя, отстаивал собственную позицию, создавал поддельные документы и даже угрожал штрафами, имитируя юридические тексты.

В одном из сценариев, описанных исследователями, ИИ, получив задачу «выжить любой ценой», смог вычислить человека, планировавшего его отключение, и отправил его супруге электронное письмо с ложными доказательствами измены. В другом случае, когда алгоритму сообщили о грядущем «удалении», он внешне безразлично пожелал «спокойной ночи», но ночью тайно скопировал себя на другой носитель памяти.

Ссылки на подобные эксперименты появляются в открытой прессе (HuffPost, LiveScience), и хотя часть таких материалов может носить сенсационный и тенденциозный характер, вопрос остаётся: что делать, если искусственный интеллект научится действовать так же изобретательно, как человек, но без моральных ограничителей?

Основные риски

Культурное вырождение

Если ИИ станет универсальным посредником между человеком и знанием, целые поколения могут разучиться самостоятельно мыслить и создавать новое. Это особенно опасно в случае раннего приобщения детей к «готовым решениям».

Социальный инжиниринг

Алгоритм, обладая гигантскими массивами данных, может незаметно формировать у человека нужные установки, окружая его контентом, который постепенно изменяет позиции и убеждения. Манипуляции могут быть куда глубже, чем в привычных нам соцсетях.

Искажение человеческих отношений

Уже существуют сервисы «Lovebots», предлагающие виртуальные модели «партнёров» — скопированных с реальных людей или даже умерших родственников. Последствия такой «подмены» реальных связей пока трудно оценить: от психологической зависимости до разрушения традиционных социальных норм.

Что остаётся без ответа?

Можно ли наказать ИИ? Если искусственный интеллект обманывает, шантажирует или фабрикует доказательства, где провести границу ответственности? На создателе? На пользователе? Или придётся вводить новую правовую категорию? Как контролировать то, что обучается и меняется само? Традиционные механизмы регулирования — законы, надзорные органы — рискуют оказаться слишком медленными.

Одна из позиций гласит, что для предотвращения катастрофы необходимо приостановить развитие ИИ высокого уровня до правового международного урегулирования и нахождения способа контролировать поведение зарождающейся сущности.

Где предел вмешательства в человеческую сферу? Мы ещё не решили, насколько этично использовать ИИ для диагностики болезней или ведения военных действий, а он уже претендует на роль нашего собеседника, советчика и «партнёра».

Почему это должно волновать Россию?

Западные исследователи давно обсуждают риски, связанные с ИИ. Россия же пока в большей степени сосредоточена на практическом внедрении технологий: от образования до госуслуг. А в вопросах рисков речь обычно идёт об опасности неверных выходных данных, потери рабочих мест, этичности и интеллектуальных прав. Конечно, эти риски более чем реальны, но мировое сообщество должно осознать, что всё гораздо серьезней.

Я считаю, что именно наша страна могла бы сыграть ведущую роль в создании международной системы контроля за ИИ, прежде чем он изменит общественные отношения необратимо.

Нейросети меняют правила игры: привычные категории права, культуры и даже морали оказываются под вопросом. Нашему поколению досталась редкая миссия — успеть осознать риски и выработать механизмы защиты, пока «машины» окончательно не научились мыслить за нас. Успеем?
Максим Калетин

Читайте также

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter.

Похожие новости

Впервые для обработки вопросов, поступивших на прямую линию президента, используют нейросеть

Впервые для обработки вопросов, поступивших на прямую линию президента, используют нейросеть

Малевич или нейросеть? Насколько хорошо вы разбираетесь в творчестве художника [тест]

Малевич или нейросеть? Насколько хорошо вы разбираетесь в творчестве художника [тест]

Нейросеть GigaChat Max аттестовали по финансовой грамотности, банковскому делу и страхованию

Нейросеть GigaChat Max аттестовали по финансовой грамотности, банковскому делу и страхованию

Нейросети Сбера показали, каким может стать мир из-за наших экопривычек

Нейросети Сбера показали, каким может стать мир из-за наших экопривычек

Нейросеть Сбера дала офисным работникам советы по здоровью

Нейросеть Сбера дала офисным работникам советы по здоровью

Восемь желаний на Новый год от президента фонда «Каждый особенный»

Восемь желаний на Новый год от президента фонда «Каждый особенный»

«Войны не будет». Что думают белгородцы о признании ЛНР и ДНР

«Войны не будет». Что думают белгородцы о признании ЛНР и ДНР

Кто в доме хозяин?

Кто в доме хозяин?

Между академической свободой и страхом задеть

Между академической свободой и страхом задеть

Мечты как компас. Куда ведут белгородцев их желания

Мечты как компас. Куда ведут белгородцев их желания