Газета New York Times в этом году попала в заголовки газет, подав в суд на OpenAI, но дело против ИИ не такое черно-белое.

🎉 🎮 Привет! Тебе что, совсем нечем заняться? Идеально! Присоединяйся к нашему телеграм-каналу Roblox, где мы веселимся больше, чем в бочке с виртуальными обезьянками. Приходи за кубиками, оставайся, чтобы подшутить. Ты не пожалеешь об этом... наверное. Увидимся в чате! 🕹️ 🚀 👇

Roblox Telegram


Газета New York Times в этом году попала в заголовки газет, подав в суд на OpenAI, но дело против ИИ не такое черно-белое.

Как опытный исследователь искусственного интеллекта с более чем двадцатилетним опытом, я был свидетелем эволюции искусственного интеллекта от его зарождения до нынешнего состояния. Продолжающаяся судебная тяжба между OpenAI и The New York Times — интригующее событие, которое привлекло мое внимание.

30 апреля 2024 года я стал свидетелем того, как восемь известных национальных газет, в том числе New York Times, подали судебный иск против OpenAI и Microsoft. Их недовольство: эти технологические гиганты якобы использовали свой новостной контент без предварительного согласия для обучения своих моделей ИИ.

Это дело является одним из крупнейших судебных исков, возбужденных против разработчиков ИИ на данный момент, и оно следует за предыдущим иском, поданным New York Times 27 декабря 2023 года, в котором утверждалось, что OpenAI нарушила законы об авторских правах через ChatGPT.

В ответ на мой запрос ChatGPT предоставил краткий обзор дела 2023 года, сосредоточив внимание на следующих ключевых аспектах: обвинение в нарушении авторских прав, отсутствие надлежащего вознаграждения за использование защищенного материала и тот факт, что судебное разбирательство все еще продолжается.

Интересно, что при обсуждении этой темы с вами ChatGPT мог ссылаться на статьи из The New York Times, проливающие свет на конкретный вопрос или, как минимум, на проблему, которую газета регулярно освещает.

Однако разве ситуация не так ясна, как предлагает The Times с ее простым черно-белым логотипом? Поскольку это решение может существенно повлиять на то, как компании будут разрабатывать свои будущие модели ИИ, возможно, на многие годы, представляется разумным изучить его более тщательно.

Неотложный вопрос: дело для The New York Times

В настоящее время OpenAI входит в число многочисленных фирм, занимающихся искусственным интеллектом, ведущих многочисленные судебные иски. Центральные вопросы в этих делах часто связаны с нарушениями авторских прав, причем истцами могут быть как независимые создатели контента YouTube, так и крупные медиакорпорации и звукозаписывающие компании.

Как аналитик, я часто задумываюсь о спорах вокруг нарушения авторских прав со стороны ИИ, особенно когда речь идет о творческих областях, таких как музыка, актерское мастерство и писательство. Голливуд уже довольно давно является горячей точкой напряженности между создателями и сектором искусственного интеллекта. Тем не менее, важно не упускать из виду средства массовой информации и новостные агентства, которые также вносят значительный вклад в борьбу с неэтичными практиками ИИ.

Проще говоря, иски, подобные тем, которые были поданы против New York Times в 2023 и 2024 годах, касаются не только защиты рабочих мест для журналистов от замены ИИ. В отличие от споров в Голливуде, касающихся ИИ, эти дела в первую очередь вращаются вокруг предотвращения злоупотребления чат-ботами ИИ новостными статьями и потенциальной опасности распространения этими чат-ботами ложной информации под предлогом заслуживающих доверия новостных агентств.

То, что ИИ, способный создавать новости, может фабриковать истории, не просто теоретическое; на данный момент это реальность. Например, в 2023 году The Guardian запретила ChatGPT использовать свой веб-сайт в качестве обучающих данных после сообщений читателей, которые обнаружили, что чат-бот публикует статьи под именами репортеров The Guardian, хотя эти журналисты их вообще не писали.

Аналогичным образом, иск New York Times против AI в 2024 году выявил несколько случаев, когда ChatGPT ошибочно предлагал фальшивую рекламу продукта, которая ошибочно приписывалась новостным публикациям.

Создание ложной информации — это не просто ошибка ИИ; потенциально это может привести к серьезным последствиям для тех, кто считает, что данные надежны. Как показывают судебные иски, этот обман также может запятнать репутацию газет, когда читатели неосознанно читают сфабрикованные рекомендации или истории.

Эти судебные иски не только усложняют ситуацию, но и поднимают вопрос о потенциальных потерях доходов. Общеизвестно, что газеты поддерживают себя за счет платной подписки. Модели искусственного интеллекта могут предоставлять читателям тексты из новостных статей, защищенных авторским правом, не требуя оплаты за контент. В результате The New York Times и другие СМИ, участвующие в иске 2024 года, утверждают, что они имеют право на компенсацию из-за использования OpenAI их контента.

По сути, это сводится к вопросу о том, кто несет ответственность. Зарабатывают ли компании, занимающиеся искусственным интеллектом, деньги на несанкционированном контенте? Могут ли они быть привлечены к ответственности, если их системы выдают неверную или вводящую в заблуждение информацию?

Заголовки новостей: аргументы в пользу OpenAI

Аргумент The Times достаточно обоснован, но, как и в любом судебном процессе, в каждой истории есть две стороны.

В ответ на подачу иска OpenAI подаст встречный иск, обвинив The Times в ненадлежащем освещении в статье под названием «OpenAI и журналистика», опубликованной на их веб-сайте в январе 2024 года. Они выразят свою поддержку журналистике, партнерству с новостными организациями, и утверждают, что иск The New York Times необоснован и необоснован.

Что касается материалов, защищенных авторским правом, найденных в ChatGPT, OpenAI предоставила комментарии, подразумевающие, что The New York Times заметила некоторое сходство с их контентом, однако они упорно отказывались привести конкретные примеры. Однако OpenAI выразила решимость изучить и исправить любые потенциальные проблемы.

Исследуя эти случаи, часто называемые типом ошибки, допускаемой моделями OpenAI, когда они представляют обучающие данные как часть ответа, отмечается, что такие случаи напоминают контент из статей, опубликованных The New York Times много лет назад и распространившихся по всей стране. различные сторонние веб-сайты. Другими словами, сходство позволяет предположить, что эти ошибки могли возникнуть из старых статей «Нью-Йорк Таймс», которые широко распространялись в Интернете.

Похоже, что они намеренно подготовили свои данные, чтобы заставить нашу модель повторять длинные отрывки из статей.

OpenAI рассматривает утверждения The Times как результат несанкционированных попыток заставить ChatGPT раскрыть свои обучающие данные, что они считают необычным и неразрешенным поведением пользователей. По их собственным словам, «такое злоупотребление не является нормальным или приемлемым использованием… мы постоянно работаем над тем, чтобы сделать наши системы более устойчивыми к таким атакам, направленным на раскрытие обучающих данных, и уже добились значительных успехов в наших последних моделях.

Выразив согласие с точкой зрения своей организации, генеральный директор OpenAI Сэм Альтман высказал свое мнение во время саммита Dealbook Summit 2024 в декабре, заявив: «По моему мнению, The New York Times часто неправильно согласовывается с ходом истории во многих аспектах.

Случай, который не такой уж черно-белый

В этих новаторских исках в области ИИ речь идет не только о нарушениях авторских прав. Принятые решения могут фундаментально изменить то, как системы искусственного интеллекта обучаются и обучаются в будущем, особенно в случаях нарушения авторских прав.

Для других модели диалогового ИИ, такие как ChatGPT, по сути, извергают информацию, которую им ранее преподавали из данных обучения, что вызывает обеспокоенность по поводу того, в какой степени эти системы повторяют или основываются на работе других без надлежащего указания авторства.

Разработчики ИИ утверждают, что такие модели, как ChatGPT, функционируют иначе, чем можно было подумать на первый взгляд. Они сравнивают это с тем, что кто-то учится играть на гитаре, имитируя риффы популярных групп. Точно так же, как этот человек не будет нарушать авторские права, обучаясь таким образом, модель ИИ, обученная на данных, защищенных авторским правом, не обязательно нарушает авторские права при генерации собственных ответов или выходных данных.

На данный момент еще не решено, какая сторона в конечном итоге выиграет дебаты в суде, поскольку обе стороны представили убедительные доказательства.

С другой стороны, возможно, сила ChatGPT в создании контента, имитирующего человеческое письмо, потенциально может быть его слабостью, во многом как путаница вокруг часто цитируемой цитаты, часто приписываемой Пабло Пикассо (по иронии судьбы, эта цитата также может быть ошибочно приписана): » Хорошие художники заимствуют, великие изобретают инновации.

Газета New York Times в этом году попала в заголовки газет, подав в суд на OpenAI, но дело против ИИ не такое черно-белое.

Для любого, кто является энтузиастом искусственного интеллекта, любителем, работающим с искусственным интеллектом, или просто интересуется дополнительными функциями, предоставляемыми ПК с Windows Copilot+ или Apple Intelligence на компьютерах Mac, наличие высокопроизводительного и эффективного ноутбука имеет решающее значение для удовлетворения ваших требований.

В журнале Laptop Mag мы постоянно оцениваем ноутбуки в течение года, чтобы предоставить вам актуальные предложения о том, какой ноутбук лучше всего соответствует вашим потребностям. В категории лучших ПК с поддержкой искусственного интеллекта мы предпочитаем исключительный Asus Zenbook S 14 (UX5406) ​​для пользователей Windows и впечатляющий Apple Macbook Air M3 для тех, кто использует macOS.

Смотрите также

2024-12-22 17:30