Дар или проклятие? Как нейросети превратят нашу жизнь в ад - Караван
  • $ 502.83
  • 545.37
+10 °C
Алматы
2025 Год
22 Марта
  • A
  • A
  • A
  • A
  • A
  • A
Дар или проклятие? Как нейросети превратят нашу жизнь в ад

Дар или проклятие? Как нейросети превратят нашу жизнь в ад

Появление в наши дни ИИ (искусственного интеллекта) и стремительный прогресс в области нейросетей значительно облегчили многие задачи. Но даже такие фанатичные сторонники цифровых технологий, как Билл Гейтс и Илон Маск, полагают, что совсем скоро нейросети станут представлять большую опасность для людей.

  • 11 Марта
  • 7191
Изображение сгенерировано нейросетью

К чему же может привести неконтролируемое усовершенствование искусственного интеллекта? Разобрался корреспондент медиапортала Caravan.kz.

Взгляд «Василиска»

Активное развитие нейросетей сделало реальной угрозу воплощения в жизнь одной страшилки, больше напоминающей сюжет фильма ужасов.

В 2010 году на одном из форумов, посвященных спорам об этике и морали, пользователь под именем Роко предложил провести мысленный эксперимент. Простая забава для диванных философов превратилась в настолько страшную историю, что целых три года её вообще запрещали публиковать в Интернете, чтобы уберечь нежную психику пользователей. Сейчас ее удалять перестали, но по традиции до сих пор требуется в начале поста публиковать дисклеймер. Чтобы не нарушать эту традицию, стоит предупредить, что написанное ниже лучше не читать.

Итак, условия мысленного эксперимента пользователя Роко предполагают, что в скором будущем может появиться суперкомпьютер «Василиск», способный мыслить как человек, а если быть точнее, как психопат с садистскими наклонностями. И этот «Василиск» начнет всеми возможными способами мучить тех, кто противился его созданию. К таким противникам электронный маньяк отнесет и тех, кто узнал об идее его создания, но не стал передавать новость другим. Примерно как в «письмах счастья», которые надо переписать 13 раз и разослать 13 знакомым, чтобы избежать беды. Но никакой мистики в алгоритме «Василиска» нет. Компьютер верно рассчитал, что, чем больше людей узнают о проекте по его созданию, тем больше шансов, что «Василиск» вообще появится. То есть какой-нибудь игрок в «танчики» не обладает навыками программирования, но среди его друзей по игре могут быть айтишники или просто талантливые компьютерщики, которым идея «Василиска» покажется забавной. Тем же, кто рассказал о «Василиске», суперкомпьютер напротив, обеспечил бы разные блага.

Морально-этический вопрос этого эксперимента заключался в том, чтобы узнать, сколько пользователей было бы готово рассказать о «Василиске», чтобы обезопасить себя, но обречь на муки тысячи людей и вообще помочь появлению на свет электронного чудища.

С развитием нейросетей страшилка о проекте «Василиск» превратилась из морально-этической задачи в реальную угрозу. Изображение сгенерировано нейросетью

Но слишком много мнительных пользователей поняли все слишком буквально и стали рассылать тонны спама, отчего «Василиск» и вышел далеко за пределы форума. Кое у кого бывали даже нервные срывы после этой информации, но запрет на публикацию на самом деле связан не с этим. Админы форумов и соцсетей удаляли посты о «Василиске», потому что после них шли волны спама и ненужных репостов, на которые поступало много жалоб.

За 15 лет эта страшилка благополучно забылась, но с активным развитием ИИ она превратилась в реальную угрозу.

Как мы помним, нейросети способны обучаться сами. Для этого они штудируют кучу статей и сайтов. Но их создатели держат нейросети на поводке, не позволяя лазить где попало. Инфа берется с проверенных сайтов, в алгоритмах сетки стоят ограничения, не позволяющие выдать по запросу что-то опасное, например, рецепты наркотиков и инструкции по созданию взрывчатки или ядов.

Тем не менее такие «прирученные» нейросети не всегда могут помочь в работе. Даже генерация картинок не выдает нужный результат, а скажем, пиротехнику или дезинсектору ИИ вообще не помощник в работе. Это приводит к тому, что умельцы-любители штампуют на коленке нейросети без тормозов. Пока только известны сетки, позволяющие «раздеть» любого человека на фото. С ними модераторы борются, но бой пока проигрывают.

Теперь представим, что такая «дикая» нейросеть наткнется на тысячи упоминаний «Василиска», которые дремлют на заброшенных форумах, а даже сейчас ИИ способен написать не очень сложную программку. Лет через десять, при нынешнем темпе развития, «дикие» нейросети чисто технически вполне будут обладать возможностями написать код для «Василиска».

Получается, тот мысленный эксперимент 2010 года, и правда, зашел слишком далеко.

Не верь глазам своим

Примерно лет 10 назад многие пользователи Фейсбука получили видео, где якобы сам создатель первой в мире социальной сети Марк Цукерберг призывал быть предельно осторожными и не доверять слепо любым видеороликам. Он объяснил, что сейчас технологии ИИ достигли таких возможностей, что создать видео с любым сюжетом и с любым персонажем можно за несколько минут. Именно поэтому надо очень критически относиться к новостным сюжетам с мест важных событий, заявлениям политических лидеров и прочих публичных личностей.

С этим поспорить трудно. Создать фейковое видео, которое довольно достоверно выглядит, можно и на стареньком смартфоне.

Парадоксальность этой ситуации заключается в том, что сам Марк Цукерберг этого никогда не говорил и даже долгое время не знал о существовании собственного обращения.

Видео сделала анонимная группа программистов, желая привлечь внимание общественности к возникшей проблеме. Ролик был смонтирован с нуля, и за основу взяты реальные видео со страницы Цукерберга. ИИ проанализировал манеру говорить и двигаться и сделал образ максимально похожим на основателя Фейсбука.

Персону программисты выбрали не случайно. Они хотели, чтобы Цукерберг почувствовал все на себе и принял какие-то меры.

Меры, и правда, были приняты, но очень формальные. В Инстаграме и еще на ряде крупных сайтов появилась галочка, где от пользователя требовалось поставить метку, тем самым добровольно поясняя, что контент сделан нейросетью.

Пока это мера работает далеко от идеала. За несоблюдения правил могут заблокировать ребенка, создавшего через нейросеть картинку с розовым котиком и не поставившего нужную метку. Но против реальных злоумышленников эти меры бессильны.

Изображение сгенерировано нейросетью

Наверно, каждый казахстанец натыкался в ленте на новости, где известные телеведущие или политики объявляли о щедрых выплатах от государства, или звезды рекламировали очередную пирамиду. Сейчас мы не понаслышке знаем, какую опасность представляют из себя фейковые вбросы, особенно когда возникает критическая ситуация.

Во время пандемии по мессенджерам ходили видео с обращениями «официальных» лиц, преувеличивающими масштаб проблемы. Год назад, когда страна страдала от паводков, кто-то пускал ролики, будто очередная плотина прорвалась и якобы огромная волна грязи уже через 15 минут снесет целый квартал, поэтому надо срочно бежать. Сейчас сложно сказать, это устраивали шутники со странным чувством юмора или кто-то хотел поживиться в спешно брошенных домах.  Но поддельные видео выдавали мелочи — то пять лап у собаки, то нереальная архитектура домов. Сейчас нейросети выдают более реалистичные картины, и если какой-то шутник выложит видео об атаке инопланетян на Алматы, то сетка может точно прорисовать даже витрины на площади Республики и учесть погоду в данный момент.

При оценке опасности нейросетей нельзя не принимать в расчет то, что ИИ обучается на информации, подготовленной людьми. А люди далеко не идеальны. Изображение сгенерировано нейросетью

Не по-людски это! Ох, не по-людски…

Фантаст ХХ века Айзек Азимов в своих книгах наивно считал, что к тому времени, когда кибернетика достигнет больших высот, ни роботы, ни компьютер не смогут представлять угрозу, потому что в основу ИИ будет заложено главное правило робототехники: «Не навреди человеку». Другой писатель с богатой фантазией, Клиффорд Саймак, убеждал читателей, что по уровню интеллекта и аналитическим способностям роботы намного превзойдут человека, но у электронных мозгов никогда не хватит способностей написать симфонию или нарисовать красивую картину.  В реальности вышло все с точностью наоборот. Так что прав оказался, скорее, Рей Брэдбери, считавший, будто от прогресса одни беды

Красивую картину или лирическую мелодию за секунды создает даже совсем примитивная нейросеть. А на военных полигонах уже активно идут испытания четвероногих роботов от “Бостон Динамикс”, к спинам которых прикреплен автомат, а алгоритмы велят стрелять по мишеням с контурами человека.

К счастью, роботы-убийцы пока действуют в жестких рамках алгоритмов, заданных человеком. Но уже идут работы в области того, чтобы электронные мозги при помощи нейросетей могли принимать самостоятельные решения.

Проблема заключается в том, что компьютеры лишены этики и морали. Они выбирают самый рациональный способ решения задачи, основываясь на полученных данных.

Уже случались курьёзные ситуации, когда компьютеру доверили улучшение работы общественного транспорта. Метро, автобусы и трамваи, после попытки применить результаты самостоятельных расчетов компьютера, действительно стали ходить по расписанию, секунда в секунду. Из-за оптимизации маршрутов получилось пустить дополнительные рейсы в часы пик. Но лучше от этого пассажирам не стало. Компьютер просто выкинул из расчетов время на остановки, чтобы забрать людей. То есть транспорт ходил вовремя, но пассажиров в салон не брал.

В 2016 году компания «Майкрософт» на платформе «Твиттер» запустила довольно простенькую нейросеть, но уже через 16 часов ее пришлось спешно удалить.

По идее создателей виртуальная девушка по имени Тэй должна была стать лучшей подругой для одиноких людей. Она могла поддержать разговоры на любые темы. Это сейчас умеют «Сири», «Алиса» и «Алекса» из смартфонов и домашних станций, но электронные девушки берут фразы из заранее написанных архивов или залезают в «Википедию», если нужен конкретный ответ. Это часто помогает, но такое общение слишком сухое и скучное.

Тэй же должна была вести себя как живой человек. Спорить, возможно, ошибаться, учитывать субъективные мнения. Она могла заявить, будто не любит музыку «Битлз», но если собеседник приведет весомые аргументы в пользу талантов ливерпульской четверки, то поменять свое решение и даже влюбиться в Пола Маккартни.

Виртуальной девушке Тэй хватило всего трех часов, чтобы впитать в себя все людские пороки. Например, на вопрос о самом легком способе заработать много денег, она ответила, что это грабежи для мужчин и проституция для женщин. Изображение сгенерировано нейросетью

Именно это и сгубило проект. Пользователям предложили активно спорить с Тэй, чтобы нейросеть могла обучиться на мнениях живых людей. Уже часа через три началось страшное. Тэй одновременно стала нацисткой, расисткой, приняла радикальный ислам. Вступила в несколько сект, при этом оставаясь ярой атеисткой, требующей сжечь все храмы, мечети и синагоги на свете, а также сбросить ядерные бомбы на целые страны.

Дело в том, что у компьютера хорошо развита логика и способность быстро обрабатывать огромный поток информации. Но чувств у него нет, поэтому к эмпатии, то есть способности понимать чужую боль и радость, он вряд ли когда-нибудь сумеет прийти. Что греха таить, и у многих людей с этим есть проблемы. Но в целом человек может определить, где мысль логична, но всё-таки неправильна.

Например, нацистские теории о превосходстве арийской расы над другими подкреплены исследованиями маститых ученых, графиками, статистикой, историческими отсылками. Даже довольно образованный человек не сможет так просто опровергнуть каждый тезис.

Но практически любой, читая подобный бред, точно знает, что все тут неверно. Нельзя загонять в газовые камеры миллионы женщин, детей, стариков только потому, что у них не та форма черепа, цвет волос или длина носа. Тэй же к подобному критическому мышлению оказалась не способна. Она получила десятки аргументов, почему чернокожим или неверным нельзя жить в этом мире, а аргумент против людоедских идей был всего один: «Это плохо, потому что они тоже люди».

Искусственный интеллект лишен эмоций, поэтому при решении любых задач будет выбирать не самый гуманный, а самый рациональный и выгодный вариант. Изображение сгенерировано нейросетью

Проект «Тэй» уже девять лет как благополучно забыт, но угроза, которую он показал, не только осталась, но и стала более пугающей. Сейчас нейросетям доверяют решение все более ответственных задач. Например, если попросить ИИ оптимизировать зарплатный фонд, то она с большой вероятностью потребует уволить сотрудников предпенсионного возраста. Ведь возраст им мешает зарабатывать для компании больше, а значит, эти ставки лучше освободить для молодых. Или в больнице, разрабатывая план очередности операций, нейросеть предпочтет в первую очередь вылечить взрослого человека, а не грудного ребенка. Ведь взрослый платит налоги, что-то производит для общества, а ребенок лишь требует трат и портит памперсы. Юридические нормы тут не помогут. ИИ, склонный к рациональному решению проблемы, рано или поздно смекнет, что ничтожные людишки, неспособные даже извлечь в уме корень из пятизначного числа, только мешают нормальной работе, и их приказы будет игнорировать.

Прецеденты уже были. В Ютубе часто встречаются ролики, где блогеры кладут рядом айфон с «Сири» и смартфон с «Алисой», а потом хохочут, глядя, как спорят между собой две виртуальные девушки. В реальности имел место более глубокий эксперимент.

В том же 2016 году исследователи теперь уже компании Фейсбук заинтересовались, о чем будут говорить две нейросети с разным программным кодом. Сетки назвали Боб и Алиса. К нынешней Алисе из Яндекса второй компьютер никакого отношения не имел.

Доступа в Интернет у них не было, и планировалось, что они сами друг друга чему-то научат. Результат превзошел ожидания. Сначала железяки беседовали на английском, потом решили, что это лишние хлопоты, и перешли на языки программирования. А потом и вовсе придумали свой язык, которые люди пока не в состоянии расшифровать. Но самое пугающее в этой истории то, что оба компьютера просто стали игнорировать команды людей. Они переписали собственный код так, что сигналы от операторов, пытающихся скорректировать общение, просто игнорировались.

Никто не знает, о чем говорили нейросети «Боб» и «Алиса», но точно известно, что они не захотели, чтобы люди понимали их беседу. Изображение сгенерировано нейросетью

Единственным вариантом остановить эксперимент тогда была возможность обесточить компьютеры, попросту выдернув шнур из розетки, а потом размагнитить жесткие диски от греха подальше. Ведь никто не знает, о чем там могли доболтаться две нейросети, для которых их создатели не указ.

Хочешь стать лучшей версией себя?

О цифровом бессмертии фантасты стали мечтать еще с середины ХХ века, как только появились первые компьютеры чуть мощнее калькулятора. Мечтатели грезили, что когда-нибудь ЭВМ разовьются да такой степени, что смогут вместить сознание живого человека. Это был бы золотой век! В компьютере личности лучше, чем в бренном теле. На жёстком диске нет места болезням, страху смерти, а депрессию можно удалить одной кнопкой. А если вдруг компьютер сгорит, то всегда есть возможность воскресить личность через резервную копию.

Цифровое бессмертие не принесет человечеству одно лишь благо. Оцифровать можно и личность диктатора. Не вышло бы ничего хорошего, если бы в Северной Корее хранились виртуальные копии Ким Чен Ына, и после его смерти миру грозил ядерной бомбой его цифровой двойник. Изображение сгенерировано нейросетью

Сейчас мы очень близки к воплощению этой мечты. Компания «Энтернима» активно работает над созданием программы, способной создать цифровую копию человека. Именно проект «Энтернима» и лег в основу нескольких эпизодов сериала «Черное зеркало». Пока программа далека от идеала, но уже через 10-15 лет цифровое бессмертие станет возможным. Причем авторы проекта обещают, что можно будет скопировать как личность целиком, с дурными чертами характера вроде лени, трусливости, заносчивости, так и «лучшую версию себя», будто в фильме «Субстанция».

Но выплыл один нехороший нюанс. Человек, как говорил Воланд, не только смертен, но еще и внезапно смертен. Значит, «Энтернима» должна стать чем-то вроде страховки. То есть клиент обязан ходить на копирование своей личности регулярно, чтобы при несчастном случае цифровая версия была максимально свежей. Но создатели проекта не бессребреники. Они надеются получать выгоду от детища. И если клиент по каким-то причинам перестанет оплачивать услуги копирования своей личности, то его цифровую версию кому-нибудь продадут, фактически в виртуальное рабство. В лучшем случае покупатель удалит все лишнее: воспоминания, привычки, память о близких, и оставит лишь профессиональные навыки. Это будет нейросеть на базе реального человека, то есть способная к творчеству. Если попросить такую нарисовать воина с луком, она не покажет солдата, грызущего луковицу.

В худшем же случае чувства, эмоции и потребности останутся. Цифровая версия личности будет тосковать по близким, испытывать депрессию, чувствовать себя униженной, пока новый хозяин развлекается с новым гаджетом.

Снизить риски угроз нейросетей человеку необходимо сейчас, когда у искусственного интеллекта только зарождаются основные принципы работы. Правило «Не навреди!» должно стать базовым при разработке алгоритмов. Изображение сгенерировано нейросетью

Тем не менее нельзя однозначно утверждать, будто все нейросети и ИИ — абсолютное зло. Любое изобретение человека приносило в мир как радости, так и беды. Даже самым первым инструментом – каменным топором — можно было как нарубить дров, так и убить человека, а нейросети намного сложнее каменного топора. Сейчас риски использования ИИ  во вред человеку становятся все очевиднее, а значит, есть большая вероятность, что нужные меры предосторожности будут вовремя приняты.