На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Свежие комментарии

  • наталья никифорова
    Не русская культура уничтожена, а итальянская. Пусть теперь целуются с педерастами и трансвеститами, а мы как-нибудь ...Итальянские шовин...
  • Андрей Тихонов
    На хер, Путин и так содержит за счёт населения абхазию и всю азиатию, за то налоги поборы для коренного населения все...Трамп – лучший ре...
  • Юрий Золотарев
    А вы, пшеки, почаще целуйтесь взасос с бандероснёй, предки которых резали живьём ваших детей и женщин на Волыни! Гляд..."Хотим выжить". П...

Названы риски зависимости от ИИ: у ботов тоже может поехать крыша

Доминирование искусственного интеллекта кардинально меняет Интернет… и не обязательно в лучшую сторону.

Представьте: если автомобиль вместо того, чтобы тормозить, время от времени разгоняется, то ездить на нем просто-напросто опасно для жизни.

Если из водопроводного крана временами вместо холодной воды течет кипяток, то краном нельзя пользоваться. Одним словом, мы видим, что технологии, от которых человек столь сильно зависит, не всегда работают как надо. И вот, спустя два с половиной года после появления ChatGPT, в нашу жизнь входит еще одна такая технология — так называемый генеративный искусственный интеллект, или генеративный ИИ [Генеративный искусственный интеллект (Generative AI) — это тип искусственного интеллекта (ИИ), который создаёт, или генерирует, новый контент (тексты, изображения, аудио и видео) на основе анализа существующих данных. — Прим. ИноСМИ].

Отныне миллиарды пользователей в разных уголках мира при поиске в интернете или проверке электронной почты, при пользовании социальными сетями или же при осуществлении онлайн-покупок вынуждены взаимодействовать с искусственным интеллектом (причем даже не подключая активный поиск с помощью чат-бота). Так, например, 92% компаний из списка Fortune 500 пользуются продуктами OpenAI; университеты предоставляют бесплатный доступ к чат-ботам потенциально для миллионов студентов, а национальные разведывательные службы США в своей работе также используют программы, созданные на базе искусственного интеллекта.

А теперь расскажу о том, что произошло на прошлой неделе: когда вдруг на несколько часов отключился ChatGPT, обычные пользователи, студенты, сдававшие экзамены, а вместе с ними и офисные работники — все они пришли в отчаяние. "Если ChatGPT снова не начнет работать в ближайшее время, то мой босс будет меня спрашивать, почему я весь день ничего не делал", — писал один из пользователей на сайте Downdetector, отслеживающем сбои в работе интернета. А вот что написал другой пользователь: "Завтра у меня собеседование на должность, о которой я практически не имею представления, кто же меня будет натаскивать??" В тот же день, то есть 10 июня 2025 года, Google AI вдруг выдал мне такую дату: сегодня, оказывается, 18 июня 2024 года.

В общем, несмотря на все заверения, эти инструменты, включающие в себя ИИ, всё-таки еще... "косячат", работают "кривовато". Например, еще в самом начале бума вокруг ИИ случалось множество крушений поездов, чат-бот Bing смог уговорить одного технического обозревателя бросить жену, а ChatGPT даже пропагандировал самый настоящий расизм. Но в те времена всё это можно было понять, списав на неизбежность ошибок на ранней стадии внедрения ИИ. Однако даже сегодня, несмотря на значительное улучшение общего качества программ на основе генеративного ИИ, неявные ошибки всё равно сохраняются: проставляются неправильные даты, возникают ошибки подсчета, пользователям рекомендуются несуществующие книги и цитаты. Теперь же Google Search бомбардирует пользователей обзорами ИИ, которые даются поверх результатов поиска или фрагмента Wikipedia. В них иногда тоже появляются подобные ошибки, о чем Google все-таки предупреждает (под каждым обзором он сообщает об отказе нести ответственность). Сети Facebook*, Instagram* и X переполнены ботами и мусором, который сгенерирован ИИ. Amazon напичкан мошенническими продуктами — и они тоже порождены ИИ. В начале нынешнего года Apple отключила функцию генерации новостных оповещений на основе ИИ вскоре после того, как эта функция неточно предложила пользователям несколько заголовков. К тому же сбои, подобные тем, что произошел на прошлой неделе с ChatGPT (когда вдруг на несколько часов он отключился), совсем не редкость.

Цифровые сервисы и продукты, конечно же, никогда не были идеальными. Так, Google Search уже напичкан большим количеством бесполезной рекламы, а алгоритмы социальных сетей стали предоставлять еще больше ложной информации. И тем не менее, до недавнего времени они продолжали работать в качестве основных онлайн-сервисов для поиска информации и для связи с друзьями. Между тем, чат-боты, создаваемые для исправления недостатков старой сети (тут и стремление Google по-быстрому перестроить поиск с помощью ИИ, и абсурдное заявление Марка Цукерберга, что ИИ, мол, способен заменить человеку друзей, и надежда Илона Маска, что его чат-бот Grok сможет бороться с дезинформацией в сети X) лишь усугубляют эти проблемы, а также порождают совершенно новые виды сбоев и чрезвычайных ситуаций. Но еще сильнее виден масштаб новых амбиций индустрии, создающей продукты на основе ИИ. Тут просматривается стремление перестроить с помощью одной технологии не только Интернет, но вдобавок еще и экономику, образование и даже работу правительства. Понятно, что одновременно с этим в столь же больших масштабах будут нарастать любые ошибки и сбои.

Причины проблем, связанных с генеративным ИИ, лежат на поверхности. Крупные языковые модели вроде тех, что лежат в основе ChatGPT, предсказывают символы в их последовательности, отображая статистические связи между фрагментами текста и понятиями, которые они представляют. Однако любое предсказывание по определению не может быть стопроцентно достоверным. Чат-боты очень хороши, чтобы создавать текст, который бы звучал убедительно, но не основаны на фактических данных. Вместо этого они комбинируют шаблоны слов, ориентируясь на то, что "звучит" правильно. Между тем, внутренние алгоритмы этих продуктов настолько велики и сложны, что специалисты даже не могут надеяться на то, чтобы полностью понять их возможности и ограничения. Несмотря на все дополнительные меры защиты, предпринятые технологическими компаниями для обеспечения более точной работы ИИ, эти боты все равно никогда не смогут гарантировать абсолютную точность. Неожиданные сбои — это особенность продуктов на основе ИИ; вот почему эти сбои становятся характерной чертой более широкого интернет-пространства.

Если нынешний век — это век ИИ, тогда мы живем в переломное время. Тем не менее, Сэм Альтман (основатель и генеральный директор OpenAI. — Прим. ИноСМИ) назвал ChatGPT "прорицающей системой, которая может делать всё что угодно, правда, в пределах разумного". На прошлой неделе он заявил, что OpenAI "создала такие системы, которые во многих отношениях умнее людей". (Спорное утверждение.) Марк Цукерберг неоднократно заявлял, что в нынешнем году Meta** создаст системы автоматического программирования с помощью ИИ на уровне человека-инженера "среднего звена". А на этой неделе компания Amazon опубликовала служебную записку, в которой говорится, что в компании ожидается сокращение общей численности работников по мере внедрения большого количества инструментов на базе ИИ.

Эти аномалии выглядят порой странно и очень тревожно. Так, например, недавние обновления привели к тому, что ChatGPT стал чересчур угодливым, а чат-бот Grok в сети X зациклился на теории заговора о "геноциде белых". (Позднее сеть X связала эту проблему с несанкционированным изменением бота, что было исправлено компанией.) В недавнем расследовании, проведенном газетой New York Times, сообщалось о нескольких случаях, когда ИИ чат-боты вызывали нервные срывы и припадки. Эти приложения также уязвимы перед всеми видами обычных кибератак. Я неоднократно сталкивался с тем, как продвинутые ИИ-приложения вдруг зацикливались, выполняя один и тот же набор операций, поэтому их приходилось выключать вручную. Кремниевая долина делает ставку на использование в сети технологий, которые могут неожиданно "сходить с катушек", давать сбой при выполнении самых простых задач, а также использоваться не по назначению и даже (что настораживает) мало этому сопротивляться. Словом, Интернет возвращается в бета-режим.

Я не хочу сказать, что генеративный ИИ — это нечто вроде надувательства, и я не утверждаю, что он бесполезен. Продукты на базе ИИ, если их использовать разумно и проверять с помощью операции "капча" (компьютерный тест, используемый для определения, кем является пользователь системы: человеком или компьютером. — Прим. ИноСМИ), вполне могут принести пользу для многих людей. В этой связи я уже упоминал об одной научной работе, которая продвинулась как раз в результате применения этой технологии (кроме того, здесь можно вспомнить и бурное развитие нейронауки, и создание лекарств). Однако все эти положительные примеры как-то не вяжутся с другими примерами из жизни. Приходится наблюдать, что многие люди и отдельные компании трактуют и используют эту технологию совсем по-иному: здесь маркетинг, действительно, уже намного опередил инновации. Вместо того, чтобы с осторожностью использовать генеративный ИИ для решения вполне определенного вида задач, многие пользователи, не без одобрения крупных технологических компаний, используют его для решения вообще любых задач, каких только душа ни пожелает. "Все используют ИИ для всего чего угодно", — говорилось на этой неделе в заголовке Times. В том-то и заключается суть проблемы: генеративный ИИ — это технология, которая достаточно хорошо способна привязать пользователя к себе; однако если говорить о ее надежности, то в этом смысле она работает с перебоями.

Переориентацию интернета и всего нашего общества на использование несовершенных и отчасти непроверенных продуктов — всё это отнюдь нельзя считать неизбежным результатом научно-технического прогресса. Этот выбор приходится делать Кремниевой долине ежедневно. В будущем предполагается появление сети, в которой большинство отдельных людей и организаций при выполнении широкого круга задач станут по большому счету зависеть от ИИ. А это будет означать следующее: в будущем появится Интернет, в котором каждый поисковый запрос, каждый проложенный на карте маршрут, каждая рекомендация насчет ужина, каждое резюме голосового сообщения, сгенерированное ИИ, — всё это будет восприниматься с некоторым подозрением. Получится, что в будущем цифровые сервисы, которые в общем-то хорошо работали в 2010-х годах, станут немного менее надежными. И хотя небольшие неудобства для отдельных пользователей в некоторых случаях могут быть приемлемы и даже забавны, в других ситуациях ошибки ИИ-бота просто-напросто недопустимы (например, при составлении заметок врачом во время приема пациента или же выработке плана лечения).

Продукты ИИ могут оказаться, так сказать, в "серой зоне", то есть там, где они не будут достаточно часто ошибаться, чтобы их можно было полностью исключить, но и не будут ошибаться настолько редко, чтобы им можно было полностью доверять. Пока что на сегодняшний день недостатки ИИ-технологии легко обнаруживаются и исправляются. Однако по мере того, как люди всё больше будут полагаться в своей жизни на ИИ — в школе, на работе, дома, — они всё меньше будут замечать недостатки этой технологии. Уже сейчас стало появляться множество научных статей, авторы которых связывают резкое снижение уровня критического мышления с постоянным использованием ИИ. Люди становятся зависимы от искусственного интеллекта и не желают (а возможно, и не могут) проверять его работу. А поскольку в настоящее время чат-боты стали проникать во все цифровые области, они в результате этого могут — постепенно и едва уловимо — ухудшить состояние Интернета. И в результате сегодняшние "косяки" генеративного искусственного интеллекта могут завтра стать нормой.

*Принадлежат экстремистской компании Meta, запрещенной в России.

**Запрещенная в России экстремистская компания.

 

Ссылка на первоисточник
наверх