Статьи

Статьи

Авторские материалы портала, включающие в себя материалы, основанные на нормативно-правовых актах Республики Казахстан. Любое использование материала разрешено только с разрешения правообладателя.

Показать все
17 тамыз 2023  года 17 тамыз 2023 года
Инновации

Т9 на стероидах: как работает ChatGPT. Объяснение для чайников

В закладки

Т9 на стероидах: как работает ChatGPT. Объяснение для чайников

Ежедневно в интернете мы читаем, каких высот в очередной раз достиг искусственный интеллект. Через публикацию нам “угрожают”, что скоро боты заменят нас на работе. Но так ли это на самом деле? Как вообще нейросети вроде ChatGPT работают? В этой статье постараемся разложить всё по полочкам так, чтобы понял даже школьник. 

Что такое ChatGPT?

С технической точки зрения это Т9 из вашего кнопочного телефона, но на стероидах. Учёные называют обе этих технологии «языковыми моделями», а всё, что они делают, — это угадывают, какое следующее слово должно идти за уже имеющимся текстом. И если в телефонах конца 90-х годов ИИ ускорял набор слов, угадывая, что пользователь печатает прямо сейчас, то в современных смартфонах искусственный интеллект предугадывает следующее слово, учитывая предыдущее. То есть, контекст. 

Пример: Вы получили сообщение от приятеля с предложением куда-то сходить. но вынуждены ему отказать, потому что у вас другие планы. Вы пишете: “Извини, сегодня никак, я иду …” и тут вместо многоточия ИИ предложит вам несколько слов, подходящих по контексту: в кино, на работу, к родителям, etc. Языковая модель в современном смартфоне не предложит вам подставить туда “мотоцикл”, например. А подберёт вариант, подходящий логически.

Откуда нейросети берут вероятности слов?

Они используют ранее собранную статистику, а потом в игру вступает «натренированная» математическую модель, которая заточена на поиск закономерности внутри этих статистических данных. Проще говоря, это хитрое уравнение с Х и У, которые пытаются предсказать, следующее слово (У) в зависимости от входящего набора предыдущих слов (Х). 

Языковые модели очень просто генерируют длинные тексты. Они делают это по принципу «слово за словом». Получается, что после каждого нового придуманного слова модель заново сканирует текст и подставляет подходящее по смыслу следующее. В результате получается связный текст.

Нейросетям не чуждо творчество!

По сути, генерируя каждое следующее слово, модель выбирает его случайно. При этом учитывая, что вероятность выпадения разных слов должны примерно соответствовать тем вероятностям, которые подсказывают зашитые внутрь модели уравнения. А они выводятся при обучении ИИ на огромном массиве текстов. Получается, что одна и та же модель даже на абсолютно одинаковые запросы может давать совершенно разные варианты ответа — прямо как живой человек.

Как ChatGPT научился писать тексты

GPT - Generative Pre‑trained Transformer, трансформер, обученный генерации текста. Трансформер — это название архитектуры нейросети, придуманной исследователями Google в 2017 году. Это универсальный вычислительный механизм, который принимает на вход один набор последовательностей (данных), а на выходе выдаёт набор последовательностей, преобразованных по определённому алгоритму. Так как текст, картинки и звук можно представить в виде последовательностей чисел, то с помощью Трансформера можно решать практически любые задачи.

Но главная его фича - в удобстве. Прежние языковые модели “тормозили” при попытке заставить их анализировать большие объёмы информации, обрабатывали данные последовательно, то современные “усваивают” больше данных и могут масштабироваться для этого. Это позволяет Трансформеру смотреть сразу всё. В итоге результаты впечатляют.

Как нейросеть может отличать фотографии? 

Чтобы научить ИИ отличать изображения животных от фотографий маффинов, разработчикам необходимо было сначала вручную разметить тренировочный набор данных. То есть, самостоятельно подписать, на какой фото - кондитерское изделие, а где - четвероногое существо. Бросать нейросеть на самостоятельное изучение было нельзя. В результате языковую модель радикально прокачали. Для этого они заставили нейросеть обработать порядка 40 гигабайт текстов. Это в 7300 раз “тяжелее”, чем полное собрание сочинений Шекспира. В общем, человеку, читающему в среднем одну страницу книги в минуту, для освоения объёма данных, закачанных в ИИ, потребуется 40 лет чтения без перерыва на еду и сон! Масштабно. 

Как GPT поумнела

По мере развития разработчики языковых моделей экспериментировали, расширяя базу данных, вшитых в ИИ. В результате каждая следующая модель была умнее предыдущей. Настолько, что очередная нейросеть смогла написать эссе на тему «Какие фундаментальные экономические и политические изменения необходимы для эффективного реагирования на изменение климата?». Человеческое жюри оценило его как хорошо сформулированное. По мере наращивания размера модели у неё отмечались новые способности, она удивительным образом самообучалась качественно новым навыкам: от сочинения длинных эссе со связным смыслом, до решения хитрых задачек, требующих зачатков построения картины мира.

Новые поколения “располневших” нейросетей

Поколения языковых моделей 2020 - 2022 годов обучали за счёт внедрения новой информации. Увеличивали набор параметров внутри интеллекта в 116 раз, в итоге данные внутри GPT стали весить в 10 раз больше, чем у предшественниц - 420 гигабайт. Нейросеть потяжелела до 700 Гб. 

В результате она смогла выдавать информации больше, чем изначально в неё было заложено. Разработчики сочли это успехом, потому что “нейромозг” стал лучше генерировать тексты и решения задач без обучения. Достаточно в запросе только словами описать проблему. 

Нейросеть сама себя научила математике

Создатели и учителя ИИ поняли, что при переходе от моделей с 10 миллиардами параметров к моделям с сотней миллиардов параметров нейросети начинают решать математические задачи и примеры. До сих пор неясно достоверно, как это происходит и почему. 

Шаг за шагом

Исследователи нейросети установили, что модель качественнее решает поставленные задачи, если в запросе добавлять фразу “шаг за шагом” или “последовательно”. К примеру, если вы попросите её решить пример, то более высокой вероятности верного ответа нужно сформулировать запрос, например, так: В среднем боксёр Иван наносит 25 ударов в минуту. Бой длится 5 раундов по 3 минуты. Сколько ударов он нанёс? Давай подумаем шаг за шагом. 

Ответ модели: За одну минуту Иван наносит 25 ударов. За три минуты Иван наносит 3 * 25 = 75 ударов. За пять раундов Иван наносит 5 * 75 = 375 ударов.

«Режим рассуждения» — это одна из качественно новых фишек, которые появились в «большой» модели GPT-3 после преодоления планки в сотню миллиардов параметров. Старые модели с меньшим количеством параметров так не умели.

Чуткая, нетоксичная нейросеть

Следующим этапом для разработчиков нейросети стала необходимость научить “нейромозг” быть столько же нетоксичным, сколько умным, эрудированным. Вокруг этой проблемы есть много этических вопросов. Основная загвоздка в том, что подобных спорных ситуаций слишком много, их невозможно формализовать. В итоге исследователи решили дать модели очень много обратной связи. Буквально живые люди вручную оценивали множество ответов нейросети на предмет того, насколько они соответствуют ожиданиям с учётом ей запроса. В итоге последнее поколение нейросети не только решает задачи, генерирует текст, отличает чихуахуа от маффинов со смородиной на фото, но и выдаёт ответы, которые с человеческой точки зрения можно считать правильными и уместными.

Обсуждения

Пока ни одного комментария, будьте первым!

Авторизация , чтобы оценивать материалы и писать комментарии.