График разногласий вокруг OpenAI: ноябрь 2023 г. — май 2024 г.

🎉 🎮 Привет! Тебе что, совсем нечем заняться? Идеально! Присоединяйся к нашему телеграм-каналу Roblox, где мы веселимся больше, чем в бочке с виртуальными обезьянками. Приходи за кубиками, оставайся, чтобы подшутить. Ты не пожалеешь об этом... наверное. Увидимся в чате! 🕹️ 🚀 👇

Roblox Telegram


График разногласий вокруг OpenAI: ноябрь 2023 г. — май 2024 г.

В этой статье обсуждаются опасения, связанные с OpenAI, в частности ее генеральным директором Сэмом Альтманом, после обвинений со стороны актрисы Скарлетт Йоханссон и бывших сотрудников OpenAI Ильи Суцкевера и Яна Лейке. В статье исследуется взаимодействие Альтман с Йоханссон по поводу использования ее голоса для модели искусственного интеллекта под названием ChatGPT, которая поразительно похожа на ее собственный голос. Эта ситуация, в сочетании с уходом Суцкевера и Лейке, которые оба были лидерами команды OpenAI «Superalignment», ответственной за обеспечение того, чтобы модели ИИ учитывали интересы человечества, вызывает этические опасения по поводу ориентации OpenAI на разработку общего искусственного интеллекта (AGI) и потенциального пренебрежение вопросами безопасности. Статья завершается вопросами о том, не слишком ли поздно OpenAI решать эти проблемы и выпустит ли Альтман первый AGI, не развеяв растущие опасения по поводу безопасности и этики.


13 мая на земном шаре была представлена ​​GPT-40, новейшая версия усовершенствованной языковой модели OpenAI — ChatGPT. В отличие от предыдущих обновлений алгоритма, которые обычно вызывают ажиотаж в социальных сетях, это открытие выделяется.

Как энтузиаст технологий, я всегда в восторге от последних достижений в области искусственного интеллекта. Поэтому, когда OpenAI представила демо-версию нового голоса Sky на GPT-40, мое любопытство возбудилось. Однако я был ошеломлен, когда актриса Скарлетт Йоханссон выразила свою обеспокоенность, заявив, что OpenAI использовала ее голос без ее согласия, несмотря на ее явные возражения в прошлом.

В последние месяцы OpenAI столкнулась с рядом серьезных проблем, начиная с ухода генерального директора Сэма Альтмана и последующей борьбы за власть. Уход ведущих экспертов по безопасности подлил масла в огонь споров вокруг OpenAI, поскольку индустрия искусственного интеллекта переживает быстрый рост. Теперь Альтман оказывается в центре этой бури. (Или: в течение последних нескольких месяцев OpenAI переживал один кризис за другим, начиная с ухода генерального директора Сэма Альтмана и последовавшей борьбы за власть, за которой последовала отставка ведущих экспертов по безопасности. Споры вокруг OpenAI усилились по мере того, как индустрия искусственного интеллекта переживает взрывной кризис. рост, при этом Альтман становится центром внимания.)

В последнее время OpenAI столкнулась с некоторыми проблемами, в частности, касающимися Йоханссон, что заставило некоторых наблюдателей задаться вопросом, не переходит ли Альтман в роль технологического антагониста.

Перевешивает ли агрессивный подход Альтмана к разработке общего искусственного интеллекта потенциальные риски? Понимание этого вопроса можно почерпнуть из прошлого Альтмана, включая его успешный переворот и последующие столкновения с видным голливудским деятелем.

Зловещее увольнение и возвращение Сэма Альтмана

График разногласий вокруг OpenAI: ноябрь 2023 г. — май 2024 г.

В 2015 году Альтман объединился с Илоном Маском и другими технологическими светилами, чтобы создать OpenAI. К концу 2022 года эта организация получила широкое признание благодаря запуску своего новаторского творения ChatGPT.

Быстро завоевав признание, Альтман получил похвалы и одобрение технического сообщества. Например, Tech Radar продемонстрировал шесть интересных приложений ChatGPT: от программирования до поэзии. Пользователи по всему миру обнаружили поразительное количество творческих применений революционного алгоритма OpenAI.

Через год после того, как революционные достижения OpenAI заставили технологическую индустрию не отставать, произошел неожиданный поворот событий. В ноябре 2023 года совет директоров OpenAI принял шокирующее решение, которое вызвало волну как в деловом, так и в технологическом сообществе. В ноябре 2023 года правление OpenAI освободило Сэма Альтмана от должности генерального директора. Последующая цепочка событий имела сверхъестественное сходство с драмами, изображенными в «Наследии».

  • 17 ноября 2023 г.: Совет директоров OpenAI увольняет Альтмана с поста генерального директора. Вскоре после этого сотрудники OpenAI направили совету директоров письмо с угрозами уйти в массовом порядке, если Альтман не будет восстановлен на посту генерального директора. 
  • 20 ноября 2023 г. Генеральный директор Microsoft Сатья Наделла объявляет, что Альтман присоединится к руководителю отдела искусственного интеллекта в Microsoft.
  • 21 ноября 2023 г.: Практически все правление OpenAI уходит в отставку, формируется новое правление, и Альтман возвращается на пост генерального директора.
  • 13 мая 2024 г. Запуск GPT-4o с демоверсией голоса Sky.
  • 14 мая 2024 г.: Главный научный сотрудник OpenAI Илья Суцкевер объявляет о своем уходе
  • 16 мая 2024 г.: Руководитель отдела согласования OpenAI Ян Лейке уходит в отставку, сославшись на соображения безопасности
  • 20 мая 2024 г.: Йоханссон публикует заявление для The New York Times , в котором сообщается, что она отказалась разрешить использование OpenAI ее голос в «Sky»
  • 20 мая 2024 г.: Сэм Альтман публикует заявление, в котором настаивает на том, что «Скай» не является голосом Йоханссон и что этот голос «никогда не предназначался для того, чтобы напоминать ее голос».
  • 28 мая 2024 г.: Бывший член правления OpenAI Хелен Тонер рассказала в интервью, что Альтман «скрывал информацию» от членов правления.

С моей точки зрения как аналитика, внезапная замена Альтмана и последующее восстановление на посту генерального директора OpenAI на первый взгляд не может показаться напрямую связанным с его недавним спором с Йоханссон. Однако если углубиться в причины, которые привели к увольнению Альтмана, можно обнаружить связь с разгоревшимися в этом месяце спорами вокруг GPT-40.

На этой неделе Хелен Тонер, бывший член правления OpenAI, поделилась своими мыслями о причинах увольнения Альтмана в ноябре. В интервью на «TED AI Show» Тонер заявил, что Альтман скрыл важную информацию от правления, предоставил неверные данные и откровенно обманул их. Примечательно, что она подчеркнула существенную нехватку прозрачности в отношении проблем безопасности в качестве своей главной проблемы.

Тонер несколько раз признал, что предоставил нам неверную информацию относительно ограниченных процедур безопасности, которые внедрила компания. В результате совету директоров стало сложно оценивать эффективность этих процедур.

Альтман несколько раз предоставлял неверную информацию о действующих ограниченных процедурах безопасности.

Стоит отметить, что совет, который первоначально намеревался уволить Альтмана, вместо этого решил уйти в отставку, был создан как некоммерческая организация. Следовательно, их основная роль была посвящена надзору за OpenAI с упором на содействие общему благу, а не на погоню за прибылью.

С внешней точки зрения увольнение Альтмана было вызвано не только игрой власти или деловой тактикой. Вместо этого оно было основано на опасениях по поводу прозрачности и потенциальных рисков, связанных с предложениями OpenAI. Следовательно, уход этого первоначального совета директоров означал значительный сдвиг для компании, и Альтман сыграл ключевую роль в ее прошлом.

На тот момент сотрудники OpenAI считали Альтмана героем из-за их сильной поддержки, причем большинство из них угрожали уйти в отставку, если совет директоров не наймет его повторно на должность генерального директора. Однако этот положительный имидж сохранялся недолго.

Объяснение конфликта Сэма Альтмана со Скарлетт Йоханссон

График разногласий вокруг OpenAI: ноябрь 2023 г. — май 2024 г.

13 мая 2024 года OpenAI объявила о своей новейшей инновации, GPT-4o, что ознаменовало значительный шаг на пути к созданию общего искусственного интеллекта (AGI) — формы ИИ, способной сравняться с человеческим интеллектом или превзойти его. Вскоре после презентации OpenAI оказалась втянутой в противоречие: Сэм Альтман оказался в центре обвинений в том, что компания невольно использовала записи голоса Йоханссон без ее согласия при создании GPT-4o.

В сентябре 2023 года Альтман обратился к Йоханссон и предложил ей стать голосом ChatGPT 4.0. Однако Йоханссон отклонила это предложение. Затем, всего девять месяцев спустя, незадолго до запуска GPT-4.0, Альтман снова связался с ней с новым приглашением. Несмотря на второй отказ, Йоханссон была ошеломлена, когда заметила сходство между голосом Скай в демо-версии GPT-4.0 и своим собственным голосом.

В заявлении, отправленном в The New York Times, она выразила шок, гнев и недоверие, услышав демо-релиз г-на Альтмана. Ее друзья и средства массовой информации не могли отличить их голоса.

Я наблюдал, как Альтман оспаривал утверждение Йоханссон о том, что он использовал ее голос для Скай. По его словам, OpenAI провела обширное прослушивание и в конечном итоге выбрала на роль другую актрису после того, как Йоханссон отклонила предложение. Личность этой актрисы в настоящее время остается скрытой, что затрудняет проверку версии OpenAI.

Альтман усугубил ситуацию, озаглавив свой X-пост как «она» прямо перед запуском GPT-40, что напомнило многим пользователям фильм 2013 года «Она», где Скарлетт Йоханссон озвучила ИИ-помощницу, которая вызвала у них романтический интерес. Связь не была потеряна для других пользователей X, которые ответили на сообщение Альтмана соответствующими изображениями и гифками из фильма.

ее13 мая 2024 г.

See more

После этого разоблачения связь между Альтманом и Йоханссон становится еще более сомнительной. Учитывая его упоминание о «Ее» и настойчивые просьбы о вокальном исполнении Йоханссон, очевидно, что Альтман хотел, чтобы актриса озвучила ChatGPT. Хотя OpenAI, возможно, и не скопировала ее голос намеренно без согласия, поразительное сходство между голосом Йоханссон и выбранным альтернативным голосом вызывает удивление.

Два известных человека из OpenAI, тесно сотрудничавшие с Альтманом, решили уйти из компании после презентации GPT-40.

Тихое падение команды OpenAI «Superalignment»

Как наблюдатель, я не могу лично подтвердить причины ухода Ильи Суцкевера и Яна Лейке из OpenAI, но их своевременный уход во время недели запуска GPT-40 вызвал серьезные спекуляции относительно потенциальных проблем безопасности.

Я сыграл ключевую роль в принятии решения о замене Альтмана на посту генерального директора OpenAI. Моя роль в составе нашей команды «Суперсогласования», которую возглавляли Суцкевер и Лейке, заключалась в том, чтобы в созданных нами моделях ИИ благополучие людей ставилось превыше всего.

Команда отвечает за оценку приложений искусственного интеллекта, которые могут создавать этические дилеммы или проблемы безопасности, например глубокие фейки, используемые для распространения дезинформации или содействия краже личных данных.

Лейке открыто сформулировал свои опасения в социальной сети X. В серии постов он объяснил причины своего ухода из OpenAI, подчеркнув потенциальную опасность создания машин, более умных, чем люди: «Стремление к созданию искусственного интеллекта, который умнее человека, ведет к огромный риск для человечества, OpenAI несет в этом отношении значительную ответственность».

Как исследователь, работающий в этой области, я заметил, что мой коллега Лейке выразил обеспокоенность по поводу того, что в нашей команде OpenAI приходится сталкиваться с проблемами, похожими на плавание против ветра. Он прямо предупредил о тревожном культурном сдвиге, заявив, что приоритетность протоколов и процессов безопасности была омрачена разработкой привлекательных продуктов за последние несколько лет.

Участие в разработке машин, более умных, чем люди, несет в себе значительные риски. OpenAI пользуется большим доверием со стороны человечества и разумно справится с этой ответственностью по состоянию на 17 мая 2024 года.

See more

Как аналитик, изучающий недавние обвинения Тонер и Йоханссон в адрес OpenAI и ее генерального директора Сэма Альтмана, я должен признать, что ситуация выглядит менее оптимистичной, чем во время дебюта ChatGPT в ноябре 2022 года. Учитывая, что OpenAI сосредоточена на разработке общего искусственного интеллекта ( AGI), заявления Лейке вызывают обоснованные опасения по поводу того, что Альтман, возможно, отдает приоритет этой цели решению нерешенных этических дилемм, связанных с технологией искусственного интеллекта.

Как заядлый последователь OpenAI, я не могу не выразить обеспокоенность по поводу недавних предупреждений команды Superalignment о тревожном направлении развития компании. Это тревожное событие вызывает еще большее беспокойство в контексте утверждений Саманты Йоханссон о том, что она неоднократно отклоняла просьбы Илона Маска использовать ее голос в своих проектах.

Если Альтман готов проверить границы законности с известной голливудской актрисой, какие еще границы он готов преступить? Какую черту он, возможно, уже переступил – действие, которое, как сообщается, привело к отставке главы отдела безопасности и этики OpenAI.

Это тот человек, которого мы хотим возглавить, когда будет достигнут AGI?

График разногласий вокруг OpenAI: ноябрь 2023 г. — май 2024 г.

Становится все труднее точно определить, что происходит в OpenAI, но распространение предположения о добросовестности в отношении Альтмана становится все труднее оправдать. Даже если бы комментарии Лейке о позиции компании (или ее отсутствии) в отношении безопасности не были адресованы конкретно Альтману, генеральный директор мог бы создать больше нежелательной огласки, чем OpenAI может эффективно справиться.

В последнее время среди потребителей растет беспокойство по поводу роли искусственного интеллекта, особенно в творческих областях, из-за страха быть вытесненным передовыми генеративными системами искусственного интеллекта. Эти опасения не являются уникальными для какой-либо конкретной компании.

Ранее в этом месяце Apple подверглась критике, когда представила рекламу новейшего iPad Pro, демонстрирующую различные инструменты, инструменты и произведения искусства, которые в реальности раздавливаются.

Одновременно Google представил новую функцию AI Summary в своей поисковой системе, что сразу же вызвало споры из-за неточных и абсурдных результатов, которые быстро распространились в социальных сетях.

С точки зрения фаната, для Альтмана не могло быть худшего момента, когда он оказался под пристальным вниманием Йоханссона в отношении OpenAI. Хотя он неохотно согласился и уничтожил Скай, его прошлые отношения с Йоханссон вызвали сомнения в его профессионализме и даже поставили под сомнение его моральные принципы. Независимо от намерений Альтмана, эта ситуация выставляет OpenAI в негативном свете, создавая впечатление, будто они пытались заработать на любимом артисте и действовали наивно, когда их разоблачили.

Чтобы процветать в нынешней критической среде по отношению к искусственному интеллекту, OpenAI требует настоящего и надежного лидера во главе. Хотя новаторская и идеалистическая личность Сэма Альтмана могла бы выполнять эту роль в прошлом, сейчас ситуация может измениться.

Как любопытный поклонник, следящий за развитием искусственного интеллекта (ИИ), я размышляю над вопросом: не слишком ли поздно для OpenAI прислушаться к предупреждениям Тонера и Лейке о безопасности, когда они стремятся к созданию общего искусственного интеллекта (AGI)? Кроме того, растет обеспокоенность тем, что Сэм Альтман может представить первый в мире AGI, прежде чем развеять растущие опасения по поводу его безопасности и этики.

Другие материалы из журнала Laptop Mag

  • Чему Google не удалось научиться у самого агрессивного чат-бота Microsoft с искусственным интеллектом
  • Шутка Сэма Альтмана о GPT-4o идеальна по совершенно неправильным причинам
  • Что означает приобретение Run:ai компанией Nvidia за 700 миллионов долларов для будущего искусственного интеллекта

Смотрите также

2024-05-30 11:45