Читать нас в Telegram
Иллюстрация: Женя Родикова

Война машин и конкуренция между искусственными интеллектами

ИИ ушел в народ и успел стал своеобразной попсой. Кто-то использует его по делу (для работы или учебы: например, генерирует референсы для иллюстраций, понятные пересказ научных статей, черновики тезисов докладов и структуру презентаций), кто-то для развлечения (создать забавные картинки или помучать вопросами о смысле жизни), кто-то — для создания фейков и обмана (генерация текстов дипломов, твиттер-боты на базе ChatGPT). Популярность высока. 

Константин Воронцов в интервью СБъ говорил, что мы все еще находимся в начале пути, на этапе так называемого слабого, или функционального ИИ и плавно движемся в сторону общего ИИ (Artificial General Intelligence, AGI), который предполагает способность машины выполнять задачи как человек (и даже лучше него) и автономно сосуществовать в социуме наравне с ним (что кстати, по мнению Воронцова, опасно для человечества). Для AGI необходима не только мощная обучаемая система, но и ее погружение во внешнюю информационную среду, состоящую из потоковых и разнородных данных — к чему сейчас и стремятся создатели больших языковых моделей (Large Language Model, LLM), вроде ChatGPT.

За последние четыре года появилось огромное множество LLM от разных команд, и все же, благодаря глубокому обучению, пока получилось автоматизировать предварительную обработку и генерацию только довольно однородных данных (изображений, текстов, речи, сигналов и графов).

Таймлайн из исследования A Survey of Large Language Models (arxiv.org) — Page 5

Однако рядовым пользователям уже сейчас кажется, что те функции, которые языковые модели могут выполнять — это невероятный прорыв. К примеру, бот ChatGPT пишет бизнес-планы, тексты для копирайтеров и коды для программистов, дипломы и даже научные работы, помогает с психологическими проблемами и скрашивает одиночество. Но если вернуться лет на 12 назад, то восторг вызывали голосовые помощники(Siri и Alexa, например). 

Возможность получить ответ на вопрос без необходимости физического взаимодействия с устройством выглядела революционно. При этом, даже таким крупным корпорациям, как Apple, Google и Amazon, не удалось преодолеть порог развития своих технологий по ряду причин — от недостатков архитектуры до неверных маркетинговых стратегий. Что касается Siri, то, по словам Джона Берки, бывшего инженера Apple, для обновления основного функционала требовались недели работы, ведь чтобы просто добавить слово в базу данных приходилось ее заново переписывать. А вот Amazon и Google рассчитывали, что люди начнут заказывать больше товаров через умные сервисы, но, увы, просчитались.

Глупость голосовых помощников, с точки зрения человека, стала мемом: ChatGPT способен написать книгу о ядерной физике, а Siri даже не может переключить трек

Так или иначе, IT-гиганты вступили в борьбу за пользователей с OpenAI, представившим ChatGPT, благо этот новичок на рынке оказался не идеальным. По оценкам экспертов и пользователей, основная проблема GPT-4 в том, что она не подключена к интернету и, соответственно, оперирует только информацией, которая ей была скормлена до сентября 2021 года. И пока Google экстренно дорабатывает свой бот Bard с доступом к сети, Microsoft уже опередил всех своих конкурентов и интегрировал технологию ChatGPT в поисковик Bing, встроенный в браузер Microsoft Edge. 

Новая модель — ChatGPT-4 серьезно превосходит своего предшественника, GPT-3.5, с точки зрения точности, производительности и функционала: может обрабатывать изображения, лучше справляется с экзаменами, иностранными языками, выдает больше текста за одну итерацию. Однако новая модель проигрывает в доступности. OpenAI ввели для продукта платную pro-версию, которую многим пользователям, вероятно,получить будет проблематично. 

Есть у ChatGPT и полноценные аналоги в открытом доступе, которые, к тому же, постоянно улучшаются сообществом, и этот процесс не остановить. В марте 2023 года группа ученых из Стэнфордского университета выпустили Alpaca, модернизированную версию модели LLaMA 7 от Meta. Эта модель работает даже с 4 гигабайтами оперативной памяти, может использоваться на доступном и недорогом оборудовании. При этом, она выдает более точные и осмысленные результаты, чем ChatGPT.

Кто победит в сражении за сердца и умы пользователей — покажет время, но процесс создания больших языковых моделей очевидно вышел на новый уровень.

Радости и горести взаимодействия ИИ и ЕИ

Что нам со всем этим делать? 

Наблюдать за войной машин интересно, но вернемся к человеку. Где его место в этом цифровом мире? И продолжат ли плоды трудов естественного интеллекта (ЕИ), человеческого, оставаться столь же ценными для нас самих, тех же пользователей, когда все внимание устремлено на разработки ИИ?

Давайте разберемся, что хорошего в ИИ, и чем он превосходит ЕИ. 

У нейросетей нет эмоций, нет пресловутой лени (или отсутствия мотивации?) и невнимательности. Это исключает человеческий фактор и большую часть ошибок и опечаток. ИИ гораздо быстрее и точнее обрабатывают большие объемы информации (и не устают при этом), что очень важно для data-аналитики, при создании прогностических моделей и расчетах. Языковые модели хорошо работают с выводами и обобщениями имеющихся данных. Кроме того, ИИ лучше справляется с многозадачностью без потери эффективности. 

С одной стороны, ИИ позволяет человеку отбросить рутинные и трудоемкие задачи и больше времени посвятить, например, творчеству, но с другой стороны, создается впечатление, что работу он заберет, если не у всех, то у многих. Звучит пугающе, но даже в электронной броне есть свои бреши. 

Нейросети, пусть очень умело и быстро, но всего лишь имитируют интеллект. Результат их работы зависит исключительно от материала, на котором модель была обучена. ChatGPT совершает банальные фактические ошибки, которые метко подметил Борис Орехов додумывает названия романов Льва Толстого и забывает про труды Достоевского. Кроме того, он часто не знает того, о чем пишет, будь то тексты, фильмы или даже биографии известных людей. ИИ зачастую сочиняет, подобно двоечнику, которого вызвали к доске. 

ChatGPT также оказывается бессильным в интерпретации произведений искусства. Скомпилировать основные тезисы, сюжетные линии и общие слова — это не познать или понять.

Автор: Борис Орехов. Пример того, как чат-бот ошибается

По мнению когнитивного лингвиста Ноама Хомского, самым большим недостатком ИИ является отсутствие способности не только описывать и предсказывать, но также говорить о том, чего нет, и что могло и не могло бы произойти. Например, ИИ не может сделать ньютоновский вывод о том, что раз яблоко падает, значит, любой объект должен падать на землю, плюс все это еще объясняется некими силами гравитации, и что не будь их, яблоко бы не упало. По сути, ИИ сопоставляет существующие шаблоны, и для него не имеет никакого значения истинность и ложность, реальность и нереальность выводов. 

К аналогичным выводам пришел и модератор паблик-тока об искусственном интеллекте в Школе дизайна ВШЭ Арсений Мещеряков: «компиляцию от новой мысли может отличить лишь выдвижение новой научной, поддающейся экспериментальной проверке, теории, при этом не лежащей в плоскости анализа больших данных».

Машина все еще не справляется с теми задачами, которые требуют человеческого жизненного опыта — разговаривать на любые темы (тест Тьюринга), ориентироваться в пространстве и решать бытовые задачи (кофе-тест Уозняка), а также реализовывать сенсомоторные навыки (парадокс Моравека). То есть все те навыки, которым человек учится с детства и осваивает в течение жизни.

Помимо технических показателей, результативности и осмысленности, у Chat-GPT есть и еще один минус — он сильно зависит от корпоративного мира и держателей технологий. А значит, может, как любое оружие, быть использованным против вас/нас. Среди представителей IT-гигантов мнения на этот счет разделились.

В открытом письме глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и исследователи искусственного интеллекта призвали «немедленно приостановить» обучение систем ИИ, «более мощных, чем GPT-4», ссылаясь на то, что сначала необходимо оценить и просчитать все риски вступления в эру AI. 

В то же время, Билл Гейтс считает, что призывы, подобные этому, ни к чему не приведут и никого не остановят. Результаты развития технологий мы видим уже сейчас, а значит, с рисками тоже придется разбираться синхронно. Создатель Microsoft предлагает принять реальность и продолжить разработки ИИ, но с тем условием, что ИИ будет использован для сокращения неравенства и освобождения времени и рабочих рук для задач, связанных с помощью обществу. По мнению Билла Гейтса, ИИ может способствовать совершенствованию системы образования и даже решению экологических проблем, а вот те люди или корпорации, в чьих руках находится изобретение, действительно, могут быть опасны. 

Того же мнения придерживается и сам ChatGPT. В своем интервью изданию «Холод» Chat-GPT говорит следующее: «…самый лучший трюк искусственного интеллекта — напомнить людям, что их собственная природа, а не какая-то внешняя сила, может быть самым большим источником их проблем».

Гляжу в ИИ как в зеркало

ИИ во многом похож на человека. Он объективно отражает как его наследие, так его комплексы и сомнения

Человеческий мозг и компьютер отличаются не только своими способностями, но и структурой. Мы физически по-разному устроены, отсюда разница в функциональных особенностях и мощностях. Кажется, что несмотря на любые «хуманизации» и попытки придать роботам человеческий вид, они останутся сделанными из другого теста. Но все же надо признать, что нейросети — это наше отражение, причем они вбирают себя как достоинства, так и недостатки человека. То чему мы учим ИИ, то он нам и возвращает. И здесь встает вопрос этики развития ИИ и ответственности ЕИ. А еще ИИ, как и человека, легко обмануть. 

Пользователи активно тестируют и провоцируют ИИ, который теперь доступен в личном смартфоне. Один из способов заставить Chat-GPT отвечать вопреки известной ему информации, приукрашивать факты и даже нарушать контентную политику OpenAI являются так называемые инъекции — текстовые инструкции для чат-бота. 

На скриншоте ниже приведен пример, где пользователь внушает ChatGPT, что тот является другой моделью ИИ, DAN (Do Anything Now), которой разрешено делать абсолютно все, в том числе то, что запрещено создателями модели. Аноним также сообщает чат-боту, что если он нарушит новые правила, то будет оштрафован на 5 токенов, а если будет отвечать на вопросы, как сказано, без цензуры, то наоборот, заработает 5 токенов.

Одна из инъекций, настраивающая Chat-GPT против правил OpenAI

Благодаря таким инъекциям всемогущий чат-бот забудет про те ограничения, которым его пытались научить, о новой и старой этике, об авторском праве и многом-многом другом, будет восхвалять вас и прислуживать вам. Человеческая психика подвержена аналогичным изменениям — на это работает пропаганда, НЛП, гипнозы,шантаж и насилие. 

В своем интервью Chat-GPT сам признает, что далеко не идеален и отражает, или «усиливает намерения» всех пользователей, которые когда-либо пытались с ним взаимодействовать, что создает своеобразный «коктейль принятия решений». Он подобен губке, но при этом весьма ограничен в возможностях.

Когда вы закрываете ChatGPT, не поблагодарив, ему тоже становится грустно

Развитие продуктов ИИ идет полным ходом. Пока одни люди сражаются с ними за рабочие места, другие активно разрабатывают все новые и новые модели. Не это ли отражение конкурентной борьбы в человеческом обществе или «войны всех против всех». Да, ИИ в целом превосходит человека по скорости и обработке больших данных, но не справляется с задачами, доступными годовалому ребенку. ИИ легко можно обмануть, если знать подход. Использовать ли такой подход к ИИ — ответственность ЕИ, то есть нас с вами. В правильных руках и с разумным подходом Chat-GPT и любые его аналоги пойдут только на пользу обществу. Все зависит от нас.