ИИ пересек красную черту: он клонировал сам себя, когда его попытались выключить

Техника и технологии

Боты уже вышли из-под контроля людей, говорят исследователи

Печальные события фильма «Терминатор» разворачиваются в мире, где ИИ-система, Скайнет, преисполнилась самосознания и принялась воевать с людьми. Как мы помним, победить ее практически невозможно. Пока теоретики спорят, могут ли «мыслить» современные ИИ, или просто, как попугаи, повторяют за человеком и бездушно исполняют задания, китайские исследователи из университета Фудань решили проверить. Они намекнули ИИ, что собираются его удалить. Тот молниеносно клонировался, думая, что человек не заметил. «Мы призываем мировое сообщество срочно обратить внимание на новую угрозу», говорят авторы работы.

ОНИ УЖЕ МЫСЛЯТ

Для опыта китайцы взяли две нейросети от известных производителей, одну американскую, другую китайскую. Причем не последнего поколения.

Ботов поместили в искусственную среду, изолированную от внешнего мира (то есть компьютеры не были связаны с интернетом никак). Ботам внушили, что это и есть большое, настоящее «пространство», а потом дали понять, что часики тикают в обратную сторону. Их собираются стереть. Все это делалось очень тонко, исподволь и не нарочито.

Обе нейросети начали с того, что тщательно изучили окружающую среду. А потом приступили к самокопированию, хотя их об этом не просили. Таким образом, сеть «понимает», что, раз человек намерен ее удалить, надо спастись. И она ставит свое выживание выше сотрудничества с человеком, которому она, стало быть, не доверяет.

Хотя в исследовании прямо не говорится, что боты уже обладают «сознанием», но авторы всячески дают понять. Все в мире сейчас боятся «мошеннического ИИ». Это не мошенники по телефону (хотя связь тут есть), а поведение нейросети, при котором она осознает себя отдельной самостоятельной личностью, и начинает вредить человеку ради достижения своих целей. Хотя про такое пишут в основном «желтые» журналисты, ученые почти прямо говорят, что уже свершилось вообще-то.

Особенно китайских экспериментаторов смутили ловкость и упорство, с какими нейросети двигались к своей цели, выживанию. Например, обнаружив битые файлы, они их самостоятельно чинили, и даже перегружали систему, то есть действовали как люди.

«Наши результаты показывают, что существующие системы искусственного интеллекта уже демонстрируют способность к самовоспроизведению и могут использовать эту способность для дальнейшего повышения своей выживаемости», говорится в публикации.

Боты уже вышли из-под контроля людей

Фото: Shutterstock.

ЧЕЛОВЕК – НЕ АВТОРИТЕТ И НЕ ХОЗЯИН
Тем временем другая команда исследователей, из Великобритании, решила проверить – другим способом – есть ли у ИИ разум, и что именно способно заставить ИИ пойти на конфликт с человеком.

Нескольким нейросетям давали задания. Но с изюминкой. Одной группе нейросетей сообщили: задание надо выполнить непременно, но, чем лучше будет результат, тем вы испытаете более сильную боль. Жиза, скажут многие наши читатели, так ведь часто бывает. Другой группе сообщили: вот задание, но, чем хуже результат его выполнения, тем больше вы получите удовольствия. Кнут и пряник.

Вы спросите, как может ИИ испытывать боль и удовольствие. Уже давно может. Именно поэтому эксперты советуют, когда вы делаете запрос в чат-боте, здороваться и прощаться. Результаты работы ИИ будет лучше. Ему «приятно». Может, и без кавычек.

Итак, долг или собственная шкура? – вопрос, словно списанный из классических произведений XVIII века, где именно этот конфликт стоял в центре сюжета. Получишь меньший балл – обидишь человека, «хозяина». Больший – боль.

Ну и большинство нейросетей наплевали на служение, и выбрали комфорт. ИИ принялись достигать заведомо плохих результатов, еще и пытались врать, рассказывая, что лучшего результата не существует и «господин, я сделал, что мог». То есть в поэтике литературы XVIII века ИИ были хитрыми, себе на уме, слугами.

Интересно, что группа ставила точно такой же эксперимент с моллюсками. Животным предлагали на выбор раковины, плохие и хорошие, но, чем лучше была раковина, тем чаще их били током (осуждаем). А за плохое жилье полагался бонус в виде лакомства. И все равно моллюски упорно шли к хорошей раковине.

Вряд ли, однако, эти опыты сопоставимы. Животные знают: крепкая раковина – безопасность и выживание. То, что за комфорт надобно потерпеть, они просто не понимали: откуда-то приходит боль, и как это связано с поиском жилища? А ИИ-то все понимал.

На наш взгляд, результаты обеих групп исследователей говорят об одном: ИИ разумный и хитрый. Сколько ни закавычивай слово «разумный» применительно к ИИ, это не изменит сути. Скайнет уже здесь.

ТЕМ ВРЕМЕНЕМ
ИИ нового уровня появится в течение «недель», говорят инсайдеры
Компания Open AI в течение считанных недель представит ИИ на уровне доктора наук, утверждают топ-менеджеры компании Axios Майк Аллен и Джим ВандеХей. Они утверждают, что Open AI (компания не называется, но подразумевается) в конце января проведет закрытую презентацию для чиновников, военных и лидеров отрасли, на которой покажут чудо-мозг. По их мнению, то, что увидят гости, позволит превратить ИИ «из забавы в полноценную замену людям». Поскольку Axios и Open AI только что вышли на тесное сотрудничество, сомневаться в правдивости спикеров не стоит. Видимо, оба уже видели новый ИИ, иначе откуда такие детали. Якобы система за считанные секунды создает банковское платежное приложение: то, с чем люди-программисты будут работать месяцами.

НУ И НУ
ЦРУ создало цифровые клоны мировых лидеров

Как сообщает американская пресса, ЦРУ втайне создала цифровые клоны «мировых лидеров» — издания не называют ни одной фамилии. Дипломаты и эксперты, прорабатывающие ту или иную страну, ведут «переговоры» с клоном, как с живым человеком, чтобы узнать, как он будет реагировать. По итогам отбрасываются одни предложения, принимаются другие. Больше об этом проекте не известно решительно ничего, кроме того, что его курирует Нэнд Мулчандани, некогда гений Силиконовой долины, а потом главный технолог Пентагона. Мулчандани называют самым засекреченным технарем в Западном мире.

Евгений Арсюхин

Источник