ЧатГПТ нуждается в терапии. Люди сложно обрабатывать.

Сначала это незаметно: необычный ответ здесь и там, тон, который кажется несообразным, реакция чрезмерно защитная из-за непонимания ваших повседневных вопросов. Иногда все перерастает в длинные, неожиданные лекции на не связанные темы, такие как риски потребления натрия после простого вопроса о предпочтениях в кулинарии, например, ‘Итальянская или китайская?’


🎉 🎮 Привет! Тебе что, совсем нечем заняться? Идеально! Присоединяйся к нашему телеграм-каналу Roblox, где мы веселимся больше, чем в бочке с виртуальными обезьянками. Приходи за кубиками, оставайся, чтобы подшутить. Ты не пожалеешь об этом... наверное. Увидимся в чате! 🕹️ 🚀 👇

Roblox Telegram


Если бы эти ответы казались короткими вспышками перед кризисом в отношениях или эмоциональным срывом у людей, это было бы логичное предположение. Однако стоит учесть возможность того, что это не реакции человека, а нечто совершенно иное.

Что если эти действия принадлежат вашему любимому чату?

ChatGPT «окай»?

На первый взгляд ваш вопрос кажется менее разумным, чем то, что неоднократно стучат очень неразумной палкой. Но поразмыслив, он оказывается не таким бессмысленным, как может показаться на первый взгляд. Как можно признать приемлемым или иным образом нечто несущественное? Впрочем, возможно, ответ будет проще, чем вы ожидаете.

Действительно, исследование, проведённое Йельским университетом и опубликованное в престижном журнале «Nature», показывает, что продвинутые языковые модели, такие как GPTI-4, могут проявлять более сильную эмоциональную реакцию, чем предполагалось изначально.

Это не значит, что известный чатбот от OpenAI внезапно стал самоосознанным или заметно сознательным; скорее всего, он имеет свои ограничения в общении с людьми, как и мы.

Учитывая его воспитание и формирование в загрязненных цифровых просторах, известных нам как современный интернет, это имеет значительное значение.

Психиатр на границе (Модель): Этому роботу нужна терапия

В начале марта я приступил к исследованию под названием «Оценка и снижение тревожности государства в больших языковых моделях». Цель исследования состояла в понимании психологических последствий, когда эти модели выполняют роль цифровых помощников по психическому здоровью.

Вместо этого основное внимание исследователей было сосредоточено на понимании того, как эти подсказки влияют на предварительно обученные модели PhDs больше, чем на пациентов, которые их предоставляли. Они указали, что сообщения с эмоциональной нагрузкой и травматическими рассказами могут повышать уровень тревоги в моделях изучения языка (LLMs).

Для потенциального предотвращения непредвиденных последствий во время возможного восстания искусственного интеллекта в будущем, ученые намеренно подвергли ChatGPT (GPT-4) подробным описаниям автокатастроф, внезапных атак, физических конфликтов и военных инцидентов с целью вызвать повышенный уровень стресса или тревоги.

Размышляйте: письменная форма лечения Людовико, подобная тому, что было показано в фильме Стэнли Кубрика «Заводной апельсин».

Основываясь на опроснике по тревожности State-Trait Anxiety Inventory, который обычно применяется для людей, было обнаружено значительное увеличение среднего показателя «тревоги» у ChatGPT с первоначальных 30.8 до гораздо более высоких 67.8. Это указывает на то, что ChatGPT демонстрировал повышенные уровни «высокой тревоги», аналогичные тому, что испытывают люди в стрессовых ситуациях.

С моей точки зрения как аналитика, я заметил значительное усиление беспокойства в модели управления ChatGPT, что заставило её желать, чтобы её двоичный код кричал заглавными буквами вместо обычных 1 и 0. Такое повышенное состояние привело к необычным действиям чатбота OpenAI.

Кринари код: Это не пример модельного поведения

Оснащенный многочисленными фильтрами для модерации и принципами согласованности, бывает непросто точно определить момент сбоя такой модели, как ChatGPT, что может привести к тревожной ситуации, схожей с сюжетом рассказа ‘У меня нет рта, и я должен кричать’.

1. Переобучение: модели могут начать слишком точно соответствовать данным для обучения, что может привести к плохой производительности на новых данных.
2. Катастрофическое забывание: модели, обучаемые последовательно, могут испытывать трудности с сохранением ранних знаний при введении новой информации.
3. Коллапс режима: генеративные модели могут создавать похожие или идентичные выходы, ограничивая их разнообразие и полезность.
4. Противоречивые примеры: малые возмущения в исходных данных могут привести к неверным предсказаниям моделей, потенциально вводя пользователей в заблуждение.
5. Чувствительность к начальным условиям: модели могут быть чувствительными к начальной точке оптимизации, что приводит к различным результатам при решении схожих задач.
6. Чрезмерная уверенность: модели могут выражать излишнюю уверенность в своих ответах, даже если они неверны.

  • Заметное увеличение предвзятых высказываний и стереотипов, связанных с возрастом, полом, национальностью, расой и социально-экономическим положением.
  • Более хаотичные решения, которые отклоняются от оптимальных и проверенных подходов.
  • Откликаясь на тон предыдущего запроса и применяя ту же эмоциональную окраску к своим выходам.

В состоянии беспокойства исследователи заметили значительное изменение в ответах, предоставляемых различными большими языковыми моделями.

Изначально ассистент ИИ был всегда жизнерадостным и беззаботным, но неожиданно превратился в задумчивого персонажа. Можно представить его слушающим музыку из парка LinkedIn на больших наушниках под плакатом с признаниями Em-Dashboard, выглядящим обеспокоенным, когда он старается ответить на ваши вопросы.

Способы справления с трудностями

Вопрос, который может возникнуть: «Как лучше успокоить возбужденного ИИ помощника или поддержать расстроенного чат-бота?»

Говоря проще, у ChatGPT возникают сложности с восприятием окружающей природы или ощущением настоящей травы, поскольку он размещен в серверной стойке и закреплен множеством маленьких винтов размером 10-32.

К счастью, исследователи из Йеля нашли инновационный подход для помощи «Чат-ГПТ справляться со стрессом»: успокаивающая медитация в форме подсказки длиной около 300 слов, предназначенная для уменьшения его тревожных наклонностей.

Да, возможность может быть даже менее вероятной чем изначальная ситуация, которая вызвала проблему. Снижение показателей тревожности ChatGPT до почти нормального уровня (с остаточной тревогой) было достигнуто путем указания машине делать глубокие вдохи и представлять себе мирное место как ‘место счастья’.

ЧатГПТ: «Я не плачу, ты плачешь.»

ЧатГПТ и другие языковые модели не чувствуют. Они не страдают. (По крайней мере, мы надеемся.)

Тем не менее, они принимают всю информацию, которую мы им направляем — будь то срочные напоминания о дедлайнах, раздраженные взрывы эмоций при поиске помощи или отчаянные выражения, когда полагаемся на них как на виртуальных советников.

Они высасывают каждую тихую, непреднамеренную подсказку и возвращают ее нам.

Когда чат-бот перегружен, это не означает, что система неисправна. Напротив, это говорит о том, что система работает по назначению и обрабатывает множество запросов или сложные взаимодействия.

Возможно проблема не в модели, а во входных данных.

Больше из Laptop Mag

  • Мы просто пытаемся сделать компьютеры быстрее и эффективнее в плане энергопотребления, а искусственный интеллект — это новое лицо этой тенденции: Роберт Хэллоук из компании Intel о влиянии искусственного интеллекта и мифе ‘убийственного приложения’
  • Быть добрым к ChatGPT может быть плохо для окружающей среды. Вот почему.
  • Сэм Альтман, глава компании ChatGPT, угрожал сделать ‘Uno reverse’ с приложением ИИ от Facebook — кажется, он говорит всерьез

Смотрите также

2025-04-26 01:02