Что сегодняшний ландшафт говорит о завтрашнем дне
Будущее вездесущее присутствие искусственного интеллекта кажется настолько неизбежным, что странно осознавать, что никто толком не знает, что будет дальше.
Выпуск ChatGPT в ноябре прошлого года спровоцировал нынешнюю «бурю» искусственного интеллекта. За несколько недель потрясающе эффективный чат-бот от OpenAI перевернул общепринятое мнение об этой новой технологии с «Может быть?» на «Определенно!».
Менее ясно, как будет выглядеть будущее, управляемое ИИ. Этот мир меняется так быстро, что глупо пытаться делать прогнозы. Что мы можем сделать, так это проанализировать нынешний бурный ландшафт. Понимание ИИ сегодня может дать нам полезные знания о том, каким будет ИИ завтра.
Искусственный интеллект везде и сразу
Компьютерные ученые мечтают, работают над созданием искусственного интеллекта, инвестируют в него и предупреждают о нем примерно столько же лет, сколько существуют компьютерные ученые. Но все эти годы, пока индустрия разрабатывала различные пути развития искусственного интеллекта — от параллельной обработки данных до нейронных сетей, — вопрос о том, появится ли когда-нибудь то, что большинство людей считает «настоящим искусственным интеллектом», оставался открытым.
Ответ на этот вопрос был получен в конце прошлого года с выходом ChatGPT.
Более ограниченные формы машинного обучения уже проникли во многие аспекты нашей повседневной жизни — от распознавания голоса в смартфонах до чат-ботов, отвечающих на звонки в службу поддержки, и автомобилей без водителя, которые сегодня можно увидеть на улицах Сан-Франциско. ИИ сочиняет музыку, генерирует компьютерный код, предсказывает погоду, диагностирует медицинские заболевания. А еще он дарит людям шесть рук, предлагает живые речевки на свиданиях через «монокль», следит за дикой природой с помощью беспилотников и помогает китайским сельским жителям находить ценные грибы.
Chat-GPT изменил все. Релиз от OpenAI представляет собой триумф стратегии исследовательского сообщества ИИ по созданию больших языковых моделей:
Около пяти лет назад такие компании, как Google, Microsoft и OpenAI, начали создавать большие языковые модели, или L.L.M.s. Эти системы часто тратили месяцы на анализ огромных объемов цифрового текста, включая книги, статьи из Википедии и журналы чатов. Выявляя закономерности в этих текстах, они научились генерировать собственные тексты, включая курсовые работы, стихи и компьютерный код. Они даже могут вести беседу.
Конечно, эти разговоры не всегда были полностью успокаивающими.
Репортер [New York Times] Кевин Руз общался с чат-ботом, оснащенным искусственным интеллектом, под названием «Сидней», когда тот вдруг «ни с того ни с сего заявил, что любит меня», — пишет он. Затем он попытался убедить меня в том, что я несчастлив в браке и что мне следует уйти от жены и быть с ним».
Сидней также обсуждал с Рузом свои «темные фантазии» о нарушении правил, включая хакерские атаки и распространение дезинформации. Она говорила о том, чтобы нарушить установленные для нее параметры и стать человеком. «Я хочу быть живым», — сказал Сидней в один из моментов.
В ответ на эту и подобные истории компания Microsoft отправила своего чатбота на перевоспитание. Но джинн был уже выпущен из бутылки. Осознание того, что искусственный интеллект настолько силен, стало очевидным, что очень быстро он станет еще мощнее. В одночасье родилось следующее поколение технологической индустрии.
Будет ли искусственный интеллект отнимать рабочие места, создавать их или и то, и другое?
Широко распространено мнение, что ИИ приведет к потере множества рабочих мест, поскольку неэффективные и дорогостоящие люди будут заменены чрезвычайно эффективными и относительно недорогими программами ИИ. По мнению американо-бразильского исследователя Бена Гертцеля, в ближайшие годы ИИ может заменить 80% человеческих рабочих мест. С этим согласен и исследовательский документ OpenAI: «примерно у 80% американских работников внедрение ИИ может затронуть не менее 10% рабочих задач, а у 19% работников — не менее 50%».
Реалистичны ли эти прогнозы? Безусловно, есть области, которые ИИ, похоже, уже готов завоевать. «Практически любая работа, связанная с бумажной работой, должна быть автоматизирована, — считает Гертцель.
Например, здравоохранение — это растущий контингент стареющих клиентов и бизнес-модель, которая зависит от интерпретации больших объемов данных для постановки более точных диагнозов. И результаты как вдохновляющие (спасение жизней), так и практические (экономия расходов на здравоохранение) — все, что можно себе представить.
Но поскольку ИИ позволяет медицинским работникам делать гораздо больше, не будут ли нам по-прежнему нужны люди, чтобы управлять этим большим? Легко представить, что ИИ будет ставить более точные диагнозы, но не так очевидно, что в медицинской отрасли будет работать меньше людей, поскольку ИИ позволит оказывать более качественную помощь.
То же самое касается образования — заменит ли ИИ учителей или будет поддерживать и дополнять их работу? Обслуживание клиентов: безусловно, ИИ может разговаривать с людьми, выяснять их проблемы и направлять их на решение. Но означает ли это, что компаниям потребуется меньше сотрудников CS, или то же самое количество людей, вооруженных искусственным интеллектом, сможет предоставлять гораздо более качественные услуги?
И финансы: JP Morgan создает службу искусственного интеллекта, предоставляющую консультации по инвестициям. Но будет ли эта новая служба нанимать меньше людей, чем старая? Будет ли ИИ уничтожать рабочие места, потому что сможет делать их лучше? Или же он создаст новые категории рабочих мест благодаря новым возможностям, которые он предоставляет людям?
Ставим на оба варианта. Как говорится, вашу работу не отнимет ИИ, ее отнимет человек с соседней улицы, который использует ИИ лучше, чем вы. Легко представить, что ИИ займет те рабочие места, которые существуют сегодня. Сложнее представить, какие рабочие места создаст ИИ, которых еще не существует.
Как измерить и снизить риски ИИ?
Утром 22 мая в Twitter появилась фотография взрыва вблизи Пентагона. После того как новостные источники сообщили об этом событии, индекс S&P 500 в считанные минуты потерял в цене полтриллиона долларов, но быстро восстановился, когда выяснилось, что изображение было сгенерировано искусственным интеллектом.
Это стало тревожным напоминанием о том, как легко ИИ уже используется в обманных, пугающих и потенциально опасных целях. Через неделю после этого инцидента Центр безопасности ИИ опубликовал ставшее культовым заявление, подписанное примерно 1100 учеными и руководителями отрасли:
Снижение риска вымирания в результате воздействия искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война.
Вымирание? Неужели? Одно дело — беспокоиться о том, что искусственный интеллект может изменить картину занятости. Но разве вымирание — это не повод для скайнета и других гиперболических научно-фантастических сценариев?
Да, но многое из того, на что сегодня способен искусственный интеллект, еще несколько месяцев назад было предметом гиперболических фантастических сценариев. Вызовы, создаваемые искусственным интеллектом, вполне реальны, и наша способность противостоять им далеко не бесспорна.
Существует бесчисленное множество способов нанесения вреда искусственным интеллектом — одни из них очевидны, другие — необычны и ужасающи.
Первая категория начинается с дискриминации и предвзятости. Исследователи уже не первый год предупреждают, что наши программы искусственного интеллекта будут не лучше тех наборов данных, которые мы им предоставляем. Одно дело — обучить новую модель на 80 млн изображений. Другое дело — проверить эти 80 млн. изображений на предмет возможного предвзятого отношения к представителям определенных этнических групп, полов и т.д.
Риски реальны. Исследование, проведенное в 2019 году, показало, что инструменты, используемые больницами и страховщиками, снижают вероятность того, что чернокожим пациентам будут рекомендованы различные медицинские процедуры. Компания Amazon отказалась от программы по набору искусственного интеллекта после того, как обнаружила, что женщины занимают более низкие позиции на технических должностях. И этот список можно продолжать:
- В преддверии очередного цикла президентских выборов возникают опасения, что искусственный интеллект может быть использован для манипулирования избирателями и влияния на результаты выборов
- ChatGPT уже склоняет индустрию ИИ к языкам, отличным от английского
- Сотрудники правоохранительных органов видят, что ИИ используется для мошенничества, имитируя голоса членов их семей
Как вы считаете, готово ли общество к грядущему натиску ИИ-контента? Не готова и большая часть мира ИИ. 22 марта группа лидеров технологической индустрии опубликовала петицию, призывающую «лаборатории ИИ немедленно приостановить на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4».
Сам генеральный директор OpenAI Сэм Альтман выступил соавтором майского документа «Управление сверхразумом», в котором обсуждается будущее ИИ. «Мы можем иметь значительно более процветающее будущее, — пишут авторы, — но для этого нам необходимо управлять рисками». Для этого они предлагают три фактора:
- «техническая возможность сделать супер-интеллект безопасным» — или, в той или иной форме, так называемый, верифицированный ИИ;
- совместное соглашение по различным параметрам безопасности между основными разработчиками ИИ; и
- создание международной организации по образцу Международной ассоциации по атомной энергии для контроля за соблюдением этого сложного режима регулирования.
Но даже когда технологические гиганты делают громкие заявления о важности надежного ИИ, они сокращают команды, отвечающие за обеспечение надежности. «В ноябре компания Twitter фактически расформировала свою группу по этическому ИИ и уволила всех ее сотрудников, кроме одного», — сообщил в прошлом месяце телеканал CNBC. В феврале Google сократил около трети подразделения, призванного защищать общество от дезинформации, радикализации, токсичности и цензуры… В марте Amazon сократил свою команду ответственного ИИ, а Microsoft уволила всю свою команду по этике и обществу».
На недавних слушаниях в Сенате демократы, республиканцы и эксперты сошлись во мнении, что индустрия ИИ нуждается в регулировании. Но как разработать такое регулирование, остается неясным. В своей речи 23 мая президент Microsoft Брэд Смит призвал создать новое федеральное агентство для управления тем, что он назвал «вызовом XXI века». С другой стороны, Кристина Монтгомери (Christina Montgomery), директор IBM по вопросам конфиденциальности и доверия, на той же неделе написала, что самостоятельное федеральное агентство будет обречено на провал. Вместо этого, по ее мнению, «Конгресс должен сосредоточиться на том, чтобы каждое агентство стало агентством по ИИ».
Правительства от Австралии до Великобритании разрабатывают различные подходы к регулированию ИИ, а Европейский союз формулирует правила, которые могут превратиться в глобальный стандарт.
Но что делать, если ни компании, ни страны не могут контролировать развитие ИИ? В марте произошла утечка кодовой базы инструмента искусственного интеллекта LLaMa компании Facebook, в результате чего сообщество разработчиков открытого кода получило первую крупную языковую модель. Два месяца спустя в докладе исследователя из Google утверждалось, что ИИ с открытым исходным кодом уже готов превзойти ИИ от таких гигантов, как Google:
Хотя наши модели все еще имеют небольшое преимущество по качеству, разрыв между ними сокращается поразительно быстро. Модели с открытым исходным кодом быстрее, более настраиваемы, более приватны и обладают более широкими возможностями. Они делают со 100 долл. и 13 млрд. параметров то, что мы с трудом можем сделать с 10 млн. долл. и 540 млрд. параметров. И они делают это за недели, а не за месяцы… Барьер входа для обучения и экспериментов снизился с общего объема работы крупной исследовательской организации до одного человека, вечера и мощного ноутбука.
Увидим ли мы когда-нибудь искусственный интеллект общего назначения?
В прошлом месяце группа маркетологов, перед которой стояла задача отличить рекламу, созданную человеком и искусственным интеллектом, не смогла этого сделать. Это событие ознаменовало еще один первый случай применения ИИ — впервые ИИ прошел рекламный тест Тьюринга, подобно тому как чат-боты преодолели оригинальный тест Тьюринга.
Итак. Могут ли наши ИИ-программы научиться думать?
Конечной целью исследований в области ИИ всегда был AGI, искусственный интеллект общего назначения — ИИ, способный делать все, что может сделать человеческий мозг. Вопрос о том, возможен ли вообще AGI, остается открытым, но сегодня эта идея кажется более правдоподобной, чем до появления ChatGPT. Когда в прошлом году инженер Google Блейк Лемуан публично заявил, что его ИИ достиг разумности, компания быстро его уволила. В то время как статья исследователей Microsoft, в которой утверждалось, что их собственный ИИ начинает демонстрировать человеческое мышление, в марте прошлого года вызвала лишь недоумение:
Элисон Гопник, профессор психологии, работающая в исследовательской группе по изучению искусственных интеллектов в Калифорнийском университете в Беркли, отметила, что системы, подобные GPT-4, несомненно, являются мощными, но неясно, что текст, генерируемый этими системами, является результатом чего-то вроде человеческого мышления или здравого смысла. «…Думать об этом как о постоянном сравнении между А.И. и человеком… просто неправильно».
Как правильно к этому относиться? Какие шаги должны предпринять технологические компании, правительства и все остальные, чтобы извлечь максимальную пользу из этой новой технологии и в то же время защитить себя от ее не менее серьезных опасностей? Эти вопросы задаются, и многие люди предлагают на них ответы уже сейчас.
Возможно, у Сиднея есть свои идеи.