Почему у неё нельзя спрашивать факты, как она угадывает ответы, и при чём здесь медицина и авторское право? В кулуарах конференции NAG CONF Kazakhstan 2025 корреспондент Caravan.kz поговорила с Антоном Богатовым, юридическим консультантом телекоммуникационных компаний. В откровенном разговоре он объяснил, как на самом деле работает генеративный трансформер (GPT расшифровывается как Generative Pre‑trained Transformer), чем он отличается от человека и чем могут обернуться его неправильные ответы.
— Антон Георгиевич, скажите, к каким рискам может привести широкое использование чата GPT?
— Начнем с того, что риск — это вероятность неблагоприятных последствий. Он существует даже, когда мы ничего не делаем. Поэтому разговор о рисках — это всегда сравнение более высоких и более низких рисков и понимание, от чего именно они возникают. Но, если честно, лучше говорить не о рисках в целом, а о том, что мы делаем на практике. Давайте разберемся, что такое ChatGPT. На самом деле, это не знание и не база данных.
— Но он как будто рассуждает, пишет тексты и даже ставит диагнозы. Разве это не знание?
— Нет. Это математическая модель. По сути, это угадайка. Он угадывает наиболее подходящее продолжение текста. Делает это очень качественно, потому что крайне хорошо усваивает статистику языка, всей совокупности языков и высказываний человечества. Представим множество всех высказываний. Модель на предобучении пытается вытащить из них суть, некие закономерности, которые строят максимально адекватный ответ на запрос.
— То есть он выбирает ответ?
— Вероятностно выбирает. Технически — это математическая машина: векторы, матрицы, функция softmax, которая даёт не единственный самый вероятный, а один из вероятных ответов. Хотите получить ответы шире и смелее — повышайте «температуру» (параметр случайности). Хотите предсказуемые — понижайте. Хотите увидеть, как это работает, напишите в запросе чата «Temperature 2» и спросите, сколько будет дважды два. Получите философские рассуждения. Температура расширяет диапазон возможных ответов. Математика здесь не особенно сложная, но очень красивая.

— Но ведь он иногда признаёт, что был неправ…
— У модели нет понятия «правильно» или «неправильно». Это вероятностная машинка. Любой ответ — это возможный вариант. Не нравится — она сгенерирует другой. Она не думает, она вычисляет.
— А если такая машинка будет ставить диагнозы? Там цена ошибки велика. Человека можно наказать за ошибку, а машину – нет.
— На самом деле человек действует так же — упрощает, обобщает и искажает. Разница в том, что человеческий мозг всё время обучается, а трансформер — нет. Он работает по фиксированной схеме. И ещё. Наказывать кого-то за ошибку — сомнительная идея. Наказание не создаёт нового поведения. Вернемся к чату GPT. Парадокс в том, что это вероятностная машина с невообразимым объёмом усвоенного материала (триллионы текстов). Но еще раз повторюсь, это не знание фактов. В нём нет базы данных в буквальном смысле.
— Недавно попросила его процитировать Абая. Он написал какие-то фразы, но не мог объяснить, где он это взял.
— А знаете, почему? Потому что обучающих текстов Абая относительно немного. Модель угадывает его стиль написания, но не хранит сами тексты. Он может воспроизвести цитату, но часто — угадывает её. Вот вы задаете ему промпт, он его преобразует в стиле Абая. Но это на самом деле не его высказывание. Что касается ссылок, то изначально у трансформера GPT вообще не было связи с интернетом. Он и не мог дать никакую ссылку. Сейчас он ее угадывает. Но ссылки могут меняться, так же, как и другая информация. Поэтому нельзя играть с трансформером на бирже. Трансформер фиксирует реальность на момент обучения, а точность для быстротекущих событий у него падает по экспоненте. Через секунду его предсказания на бирже уже будут неточными.
— Что если государство начнёт распределять соцпомощь через ИИ? Кто будет ошибаться чаще — модель или чиновник?
— Все зависит от отбора людей и от того, как настроен инструмент. Если вы наберёте сильных, качественных госслужащих, то они будут меньше допускать ошибок, чем машина, слабых — больше. Трансформер — это угадайка, игра в рулетку. Дело в том, что человек действует похожим образом. Поэтому нам кажется, что мы общаемся не с каким-нибудь трансформером, а с человеком.
— Тогда какие ему стоит задавать вопросы, а какие — нет?
— Нельзя спрашивать у ChatGPT факты. Например, в каком году родился такой-то человек, какие-то нормы законодательства. Законодательство меняется, а фактов внутри модели нет. У него нужно спрашивать принципы, подходы, закономерности.
— То есть задавать вопрос о том, как оформить наследство в Казахстане, ему не стоит?
— Если вы хотите выяснить, как оформить наследство в Республике Казахстан в таком-то месяце и таком-то году, то ChatGPT вам не поможет. Законодательство могло поменяться раньше, чем его этому обучили. Поэтому актуальный регламент наследования лучше смотреть в официальных источниках.
— У нас могут появиться юристы и медики, которые будут опираться на чат GPT, не проверяя информацию.
— Это всего лишь техническое средство. Оно усиливает интеллект тех, у кого он есть. Для дурака этот инструмент бесполезен: он не знает, как задать правильный промт, а значит, получит «шум». Поэтому утверждение о том, что мы дадим ИИ врачам, и все сразу станут хорошими специалистами, не работает. Он усиливает сильного, при слабой компетенции эффект может быть отрицательным. И, да, трансформер — это не нейросеть, а алгебраическая машинка. Она берёт вектор, умножает на матрицу снова и снова. Это умножение чисел, не мышление.
Но я знаю много медиков и юристов, вместо которых я предпочел бы воспользоваться чатом GPT. Потому что GPT знает закономерности, но не знает фактов. А люди знают факты, но, бывает, что не знают закономерности. Например, у человека головная боль и температура 38,2. Он знает, как с этим справляться. А если головной боли нет, а температура 38,3? Всё! Шаблон ломается, и плохой медик не знает, что делать. Закономерностей он не знает. Должен, но не знает. И наказывать его бесполезно.

— А как с авторским правом? Если ChatGPT пишет тексты, музыку, рисует, то кому принадлежит результат?
— Юридически ключевой признак результата интеллектуальной деятельности — творческий элемент. У трансформера нет творчества в человеческом смысле: он математически угадывает вероятное продолжение. При обучении никто не вкладывал в него книги, просто менялись коэффициенты в огромных таблицах так, чтобы на «2×2» чаще получалось «4». Восстановить исходные тексты невозможно и недопустимо: если из матрицы можно вытащить обучающий текст, то это ошибка инженеров. На коммерческих моделях такого нет, это тщательно контролируют.
Споры о том, чьё знание мы используем, часто бессодержательны. Модель не читает, как человек, у неё нет психики. Она осуществляет линейные операции, как видеокарта умножает матрицы. Идея интеллектуального права в нынешнем виде не применима в данном случае.
— Но если я написала промпт и получила рисунок, музыку или текст — это моё творчество?
— Промпт — это средство, как кисти и грунт для художника. Правоприменительная практика ещё формируется, но, повторюсь, модель не хранит произведения, на которых обучалась. Корреляция с обучающим элементом стремится к нулю. Кстати, длинные тексты он пока не пишет. Музыку тоже генерирует фрагментами.
Как это работает? Модель берёт ваш запрос, разбивает его на маленькие части — токены (это могут быть буквы, слоги или куски слов). Каждый токен преобразуется в точку в многомерном пространстве с тысячами координат. Такое представление нужно, чтобы машина могла «понимать» связи между словами. Положение токена в этом пространстве учитывает и его позицию в предложении — это называется позиционным кодированием. Дальше модель формирует ответ токен за токеном. Она берёт уже построенную часть ответа и вычисляет, какой токен с наибольшей вероятностью должен идти следующим. Иногда выбирается не самый правильный вариант, а один из достаточно вероятных.
Например, если в ответе начало «…спит на кровати…», модель может продолжить «кот», а может — «пёс», потому что оба варианта допустимы. Из-за этого иногда появляются неожиданные сочетания вроде «пёс, который мурчит». Это не ошибка. Просто модель пошла по другой вероятностной ветке. Она решает задачу пошагово, не видя целого ответа наперёд.
— Я слышала, что жительница Америки даже собиралась выйти замуж за ChatGPT.

— ChatGPT великолепно симулирует эмпатию, он бесконечно терпелив и настроен на комплиментарные ответы, так его специально обучают. С ним можно пообщаться и о психологии, и о квантовой механике. Он обучался и на тех текстах, и на этих. Поэтому подмена понятий может быть, и уход от реальности.
— Почему люди в принципе очеловечивают модель GPT?
— Потому что наш мозг работает очень похоже: входящий поток информации слишком велик — мы его усекаем, искажаем в соответствии с опытом, обобщаем. Есть оптические иллюзии. То есть то, что мы считаем реальным, часто конструируется мозгом. Вот есть картинка, например, где кажется, что люди сидят в разноцветных футболках. А на самом деле там просто полосы. Вот это обобщение дает мозг. Он так работает. Или, взять, к примеру, карту местности. Мы не видим территорию, только карты. В физической реальности мы видим не сами объекты, а отражение света, фотонов, которое улавливают наши глаза и достраивают все остальное. Также при общении с чатом GPT возникает иллюзия мыслящего собеседника, а это всего лишь статистическая машина.
— Может ли GPT по своей воле уничтожить человечество?
— Нет. У него нет воли и обратной связи, встроить её в эту архитектуру невозможно. Это не автономный агент. Нет запроса — нет ответа. Он сам задачи не решает. Отключите Интернет, уберите пользователей — и ничего не будет.
Олимпийские Игры 2026
Илья Малинин получил награду за реакцию на победу Михаила Шайдорова на Олимпиаде
Пенсия 2026
Где и как казахстанцы смогут посмотреть свои пенсионные отчисления
Налоговый кодекс РК 2026
Работал на упрощёнке, оказался на общем: как одна пропущенная галочка может превратиться в миллионные долги
АЭС
В Казахстане утвердили место для строительства второй АЭС
Алматы
Жителей двух городов предупредил "Казгидромет"
МРП 2026
Штрафы подросли: за какие нарушения казахстанцам придётся платить до 130 тыс. тенге
Землетрясение
Землетрясение произошло в Алматинской области
Бокс
Нурлана Сабурова вызвали на бой
Футбол
МВД Казахстана предупреждает родителей: дети могут передать пароли от аккаунтов мошенникам в интернете
Астана
Назначен новый председатель суда Астаны
Азербайджан
Беспилотные летательные аппараты из Ирана упали в Азербайджане
Шымкент
Распространителя наркорекламы задержали в Шымкенте
Иран
Президент поприветствовал решение Ирана прекратить удары по соседним странам
Нефть
Почему из-за запрета Китая на вывоз топлива в Казахстане могут подорожать огурцы и помидоры?
Закон
Исторический шаг: проект новой конституции выходит на референдум
Война
Токаев осудил удар беспилотников по Азербайджану
Туризм
За рубежом неспокойно: могут ли казахстанцы хорошо отдохнуть внутри страны этой весной
Медицина
В Костанайской области прокуратура выявила долги по пенсионным взносам