Константин Воронцов — профессор Физтеха и Вышки, доктор физико-математических наук, преподаватель школы анализа данных «Яндекса». Он занимается машинным обучением и анализом данных со времен, когда это совсем не было мейнстримом. Многие впервые узнали о машинном обучении благодаря сайту machinelearning.ru, одним из основателей которого был Воронцов.
В этом году Константин Воронцов стал гостем подкаста «Неопознанный искусственный интеллект», который делает команда «Системного Блока». А теперь по следам подкаста мы публикуем ответы Константина Воронцова на вопросы о настоящем и будущем искусственного интеллекта. Редакция считает, что они будут интересны не только специалистам в области машинного обучения, но и всем интересующимся читателям.
Что сейчас происходит в области искусственного интеллекта?
Сейчас происходит прорыв в машинном обучении (ML), точнее, в глубоких нейронных сетях (Deep Learning, DL). Мы привыкли называть это Искусственным Интеллектом, но на самом деле это лишь Имитация Интеллекта, приближение очень сложных функций по очень большим выборкам данных.
Классический ML работает с однородными, хорошо структурированными и заранее обработанными данными — векторами признаков. Благодаря DL удалось автоматизировать этапы предварительной обработки и генерации признаков для изображений, текстов, речи, сигналов и графов. Это более сложные данные, но всё ещё довольно однородные. Мы всё ещё безумно далеки от Общего ИИ (Artificial General Intelligence, AGI). Для него необходима не только мощная обучаемая система, но и её погружение во внешнюю информационную среду, где разнородные данные льются потоком.
По числу нейронов наши нейросети едва ли дотягивают до мозга кошки, а по функциональным возможностям — до нервной системы комара.
Пока нейроны расходуются крайне нерационально, это стрельба из пушки по воробьям. За сотни миллионов лет эволюции природа научилась очень плотно упаковывать в нейронную сеть разнообразные функции управления живым организмом — инстинкты, рефлексы, принятие решений. Если мы этому не научимся, то прогнозы Рэймонда Курцвейла не сбудутся — да, сеть будет того же объёма, что человеческий мозг к середине XXI века, но уметь она будет гораздо меньше.
Ещё одно интересное замечание к текущему состоянию ИИ. Недавний прорыв в DL обязан не только новым успехам в вычислительной технике и нейросетевых архитектурах. Это ещё и успех в математических методах решения оптимизационных задач большой размерности. Мы ещё не до конца осознали, что эти методы могут применяться не только в нейронных сетях, но и гораздо шире, во многих инженерных приложениях. Возможно, нас ожидают удивительные прорывы во многих отраслях.
Есть мнение, что те технологии, которые сейчас в тренде, диплернинг, достигли точки исчерпания. Так ли это?
Точно нет. Обычно после крупных качественных прорывов в науке начинается период медленных эволюционных улучшений, который плавно переходит в стагнацию до следующего крупного прорыва.
Ничто не говорит о том, что в глубинном обучении началась стагнация.
Наоборот, появились нейросетевые модели вроде GPT-3, которые умеют решать широкий спектр задач анализа и генерации текста. Невозможно точно прогнозировать, когда случится следующий прорыв, и каким он будет.
Модель GPT-3 хорошо умеет переключаться с задачи на задачи, часто уместно отвечает на произвольные вопросы — можно ли говорить об интеллекте?
Нет, нельзя. Очередная имитация интеллекта. Более совершенная, чем предыдущая. Приготовьтесь, следующие имитации будут ещё круче.
А возможен ли общий ИИ (AGI) на нейросетях? Какие есть фундаментальные ограничения, потолки, в которые можно упереться? Куда двигаться дальше, чтобы их преодолеть?
Что такое AGI, надо бы определить поточнее… Пока его попросту не существует. Фундаментальных ограничений нет, надо просто продолжать исследования. Сейчас вектор движения понятен — это чисто феноменологическое экспериментирование, мы набираем опыт в построении нейросетевых архитектур. Архитектуры становятся всё сложнее. Данные становятся всё разнообразнее. Инструменты всё удобнее для конструирования кубиков из кубиков из кубиков. Идёт эволюционный процесс экстенсивного развития.
Каковы критерии интеллектуальности машины? Как понять, что что-то обладает «интеллектом»?
Да никак. Надо перестать задаваться этим схоластическим вопросом. От того, что мы что-то назовём словом «интеллект», никакая суть не поменяется.
Создание AGI не есть самоцель.
Чего мы на самом деле хотим? Если светлого и сытого автоматизированного будущего, то нет никакой необходимости создавать AGI. Достаточно решать конкретные задачи. Это требует не общего ИИ, а специализированных под задачи технологий, которые в чём-то в миллионы раз мощнее человеческих возможностей, а в чём-то уступают человеку и не могут работать без человека.
Главное — надо определиться с нашим человеческим целеполаганием. Если мы строим человеческую цивилизацию, значит, мы хотим автоматизацию, которая освободит наше время, руки и мозги, даст свободу творчества. Это на самом деле вопрос политический. Вопрос к элитам, куда они ведут человечество, во что они решили вкладывать свои триллионы.
Нам всё чаще навязывают картину антиутопии
Вроде бы фантасты, писатели и режиссёры имеют благие намерения, они хотят предупредить и предостеречь. Хотим ли мы все вместе в «Матрицу»? Предупредить можно раз или два. Пугает, что этого становится слишком много. Уже появилось поколение людей, которые реально считают, что если машины окажутся совершеннее человека, то биологическая жизнь должна уйти. Новое поколение готово идти по пути самоуничтожения просто потому, что это прикольно, что это как в фильме… Чрезмерно частое предупреждение становится воздействием с целью подмены системы ценностей.
Давайте все-таки попробуем представить наш мир после того, как «настоящий ИИ» сделан и доступен.
Вопрос, кому этот «настоящий ИИ» будет доступен, давайте не обсуждать, чтобы случайно не уйти в политику.
Порассуждаем непредвзято, без самообманов, общий ИИ — это о чём вообще? Определяют по-разному, но чаще всего так: это «способность машины понимать и обучаться решению любой интеллектуальной задачи, которую умеет решать человек». Компьютер уже давно превзошёл возможности человека по скорости вычислений, по объёму и надёжности хранения и передачи информации. То есть успешно решает массу задач, которые человеку непосильны. Почему же нам этого мало?
Машина по-прежнему не справляется с теми задачами, которые требуют человеческого жизненного опыта и для нас с вами тривиальны — разговаривать на любые темы (тест Тьюринга), ориентироваться в пространстве и решать бытовые задачи (кофе-тест Уозняка), учиться в университете и сдавать курсы наравне со студентами (тест Герцеля), выполнять экономически важную работу не хуже наёмного работника (тест Нилссона), планировать свою деятельность, ставить перед собой цели, и т.п. То есть все те задачи, которым мы учимся с детства и осваиваем в течение жизни, находясь в трёхмерном пространстве-времени и в человеческом социуме. Нам кажется, что созданные нами компьютеры всё ещё недостаточно совершенны, потому что этого они пока не могут. Поэтому мы, как их создатели, испытываем своего рода иррациональный комплекс неполноценности… Давайте осознаем: никакого здравого смысла в этом нет, это всего лишь комплекс!
Так о чём это всё? Чтобы машина научилась решать наши интеллектуальные задачи, её нужно обучать в той же информационной среде. Значит, общий ИИ — это на самом деле об автономном существовании машины в человеческом социуме наравне с человеком. Давайте задумаемся непредвзято, а зачем нам это нужно и к чему это может привести. Страшно, да?
Мы готовы сотворить более совершенного конкурента самим себе?
Предлагаю на этом поставить точку. Нам не нужен общий искусственный интеллект в таком виде. Он только отвлекает нас от решения наших цивилизационных задач и представляет угрозу нашему существованию.
Итак, осознали: общий искусственный интеллект — это деструктивная мечта, своего рода комплекс неполноценности, характерный для ранней стадии развития техногенной цивилизации.
Теперь давайте разделим, что в общем ИИ нам действительно нужно, а что представляет угрозу. Нужна автоматизация рутинной интеллектуальной деятельности. В то же время автономность машины в человеческом социуме наравне с человеком не нужна и опасна.
Автономность машины в человеческом социуме наравне с человеком не нужна и опасна
Однако возможно ли обучить машину решению действительно любой человеческой интеллектуальной задачи, не погружая её в ту же среду, в которой обучается человек? Едва ли. Мы сейчас практически доказали от противного невозможность безопасного «Общего ИИ».
То есть не будет никакой «точки сингулярности» по Курцвейлу. Будет эволюционное развитие технологий и дальнейшее проникновение автоматизации во все сферы деятельности человека. Человек будет решать свои задачи, а машины — помогать ему в том, что они делают лучше него.
Должен ли ИИ быть антропоморфным?
Ни в коем случае. Самолёты летают не как птицы. Подводные лодки плавают не как рыбы. Автомобили передвигаются не как гепарды. Экскаваторы роют не как кроты. Компьютеры вычисляют не как мозг. Достаточно примеров или продолжать? Инженеры подсматривают некоторые решения у природы, но и только лишь. Если устройство имеет иную элементную базу, то и оптимальные конструкции будут совсем другими, и возможности устройства — тоже.
Я вообще не понимаю, зачем роботу быть похожим на человека. Это какая-то очень примитивная фантазия. Нас фантасты давным-давно сбили с толку, не разбираясь ни в науке, ни в инженерном деле, поэтизировали и романтизировали эту тему, а мы по-обывательски поддались. Странно, что этот «сон разума» продолжается так долго, явно выходя за пределы здравого смысла и «рождая чудовищ». Инженерия, как и природа, не терпит лишнего. У робота свои задачи, и пусть его форма будет оптимизирована под них. Роботы должны быть послушными рабами людей, делающими нашу жизнь более комфортной и более творческой.
Роботы должны выполнять тяжёлые рутинные операции, оставляя человеку творчество.
Пусть робот имеет 20 щупалец или реактивный двигатель, если это необходимо ему для работы, и вычислительный интеллект, оптимизированный для решения поставленных перед ним задач.
Что за болезненная фантазия такая — пытаться делать подобие себя, этаких Големов, взамен друзей что ли, или взамен кого? Лично мне это кажется нелепым и нецелесообразным.
На самом деле, и давайте это честно признаем, антропоморфизм имеет единственную цель — оказать на человека психическое воздействие, вызвать эмоцию. Это манипуляция человеческим восприятием, чем-то сродни тому когнитивному шоку, который мы испытываем, когда боковым зрением принимаем манекена за живого человека. По сути железка ничем не отличается от компьютера или автомобиля, но относимся мы к ней по-другому, не осознавая, что нас обманули.
Должны ли мы познать устройство человеческого мозга, чтобы смочь сделать настоящий ИИ?
Знания не бывают бесполезными. Познавать устройство мозга — очень важная задача не только для создания ИИ, для медицины это ещё более важно. ИИ не будет копировать мозг по одной простой причине. Оптимальное конструкторское решение всегда зависит от элементной базы. На живых нервных клетках одни решения будут оптимальны, на микропроцессорах — совсем другие.
Мы уже имеем такие технологии вычислений и хранения данных, которые превосходят возможности человеческого мозга в тысячи раз
Эти (или более совершенные) технологии уже гарантированно станут компонентами будущего ИИ. Он уже гарантированно не будет в точности таким, как наш мозг — он будет в миллионы раз мощнее по определённым параметрам.
Мертвая ли «старая школа» ИИ: логико-символьные подходы, экспертные системы на онтологиях?
Ничто в науке не умирает навсегда. Многие методы нашли свои узкие ниши, где они адекватны и успешны. Отдельные научные школы продолжают исследования в этих направлениях, и там есть свои прорывы. В науке очень важно поддерживать разнообразие. Мне не нравится тенденция к гиперсоциализации науки, когда все бросаются заниматься главной модной темой. Наука требует знаний, фантазии и самоотдачи, но также и преданности поставленным целям. Взялся раскопать тему — так раскопай её до самого дна.
Cписываем ли мы в утиль лингвистическую теорию и Хомского, или она еще поможет в разработке ИИ?
Лингвистика самоценна, и это далеко не только Хомский. Лингвистика изучает способы коммуникации между людьми, в их изменчивом многообразии. Лингвистика даёт методологическую основу для построения разговорного ИИ. Есть и встречный поток пользы: анализ данных и ИИ постоянно привносят в лингвистику новые методы исследований.
Что вы думаете о работе Франсуа Шолле «On the Measure of Intelligence», где он пытается дать определение интеллектуальности и предлагает свой сложный бенчмарк ARC для оценки интеллектуальности машины?
25 ноября 2019 года появилась философская (то есть не научная) статья Франсуа Шолле с ещё одной попыткой уточнить определение ИИ. Я бы хотел пойти намного дальше Шолле и просто объявить большинство поставленных им вопросов бессмысленными, надуманными проблемами. Западная культура слишком аналитична, слишком увлечена чёткими дефинициями. Иногда забывая, что способ говорить — это ещё не способ решать задачи.
Что такое ИИ? Не имеет значения. Просто перестаньте мучать себя этим вопросом.
Как сравнивать ИИ с Естественным Интеллектом человека? Их не надо сравнивать. Забудьте.
Шолле предлагает измерять ИИ не достигаемым результатом, а тем, насколько эффективно приобретаются навыки. Однако понятие «навыка» столь же нечётко определено.
Шолле предлагает создавать инструменты для оценивания и сравнения способностей к решению новых и нестандартных задач и умению логически мыслить. Давайте оставим эти способности прерогативой людей, тогда и измерять будет незачем.
А что же на самом деле нужно? Перестать быть зашоренными технократами и вспомнить исходную позицию. Кто мы и зачем мы.
Мы — люди, и мы создаём человеческую цивилизацию.
Мы ценим и хотим сохранить себя и всё живое на Земле. Машины необходимы нам для создания комфортных условий жизни, в системе наших цивилизационных и гуманистических ценностей. Поэтому ИИ — не самоцель, а средство решения конкретных задач в рамках этих ценностей, и в каждой задаче имеются свои измеримые критерии.
Не нужно специально создавать никакого общего ИИ. По мере решения конкретных задач средства разработки функционального ИИ станут настолько продвинутыми, что позволят гибко и быстро конфигурировать и дообучать функциональный ИИ под любое приложение. Это не будет общим ИИ, но общий ИИ так и не понадобится. Я именно так вижу светлое будущее. Будущее с общим ИИ представляется мне небезопасным и несколько более мрачным.
Что происходит в сфере «обучения машинному обучению»?
Анализ данных становится универсальной точкой входа практически в любую науку. Теперь не обязательно работать в лаборатории или на производстве, чтобы «пощупать руками» и понять суть того или иного процесса. Погрузиться в задачу теперь возможно, не вставая с дивана. Скачать открытые данные, почитать научную или учебную литературу, поучаствовать в открытом конкурсе. Понижаются барьеры входа во многие предметные области, учить и учиться становится проще.
Как учить людей, чтобы они выросли и создали сильный ИИ?
Как я уже сказал, сильный ИИ создавать не надо. Надо решать конкретные задачи автоматизации рутинных интеллектуальных функций. Надо заниматься изучением предметных областей и их математическим моделированием. Никакой ИИ не заменит глубоких экспертных знаний.
Профессионалов в области Data Science /Artificial Intelligence надо учить и теории, и методам, и практическому решению задач. Мы часто говорим о культуре анализа данных, которая приходит с опытом работы. Тут много аспектов: чистота данных, предварительная обработка данных, графическая визуализация для получения идей и инсайтов, умение формализовывать гипотезы и строить математические модели, знание границ применимости моделей и методов, понимание подводных камней в методиках оценивания моделей, и многое другое. Вся эта премудрость лучше всего осваивается в процессе решения реальных практических задач.
Ещё важное замечание, что теоретиков, инженеров и менеджеров в области ИИ надо учить по-разному и разным вещам. Но об этом много правильных слов говорится на каждой конференции по DS.
Что вы думаете о проблеме «этики ИИ»?
Что делать с беспилотниками, которые будут случайно убивать людей? Хотя делать это они будут намного реже, чем сами люди.
Что делать с технологиями, которые, оказавшись в руках злоумышленников, могут быть использованы как орудия убийства?
Что делать с алгоритмами принятия решений, которые, обучаясь по данным, становятся предвзятыми к людям по признакам расы, пола или возраста?
Что делать с социальным расслоением общества, когда технологии автоматизированной комфортной жизни на основе ИИ окажутся элитарными, не общедоступными?
Ответственность за использование ИИ, как и любой другой технологии, несущей потенциальную опасность для людей, должна разделяться между пользователем и производителем, в случаях коллизий выясняться путём экспертизы и разбирательства в суде. Кажется, что подходы в отношении ИИ не должны принципиально отличаться от подходов к другим потенциально опасным технологиям.
Должны ли мы выработать и соблюдать «права роботов» примерно так же, как «права человека» или «права животных»? Пожалуй, это единственный вопрос про этику, на который я готов уверенно высказать своё мнение: «нет, не должны». Когда в видеоролике Boston Dynamics инженер пнул своё козлоногое создание, из социальных сетей раздался жуткий визг. Людям стало «жаль животинку». Нелепость этой эмоциональной реакции должна быть очевидна каждому здравомыслящему человеку.
Инженер имеет право не только пнуть свою машину, но и разобрать её на запчасти. Даже когда машина будет наделена самосознанием.
Мы их создаём, чтобы они были нашими рабами. Просто потому, что это наша цивилизация, человеческая.