Можно ли доверять журналистике, которой помогает искусственный интеллект?

🎉 🎮 Привет! Тебе что, совсем нечем заняться? Идеально! Присоединяйся к нашему телеграм-каналу Roblox, где мы веселимся больше, чем в бочке с виртуальными обезьянками. Приходи за кубиками, оставайся, чтобы подшутить. Ты не пожалеешь об этом... наверное. Увидимся в чате! 🕹️ 🚀 👇

Roblox Telegram


Можно ли доверять журналистике, которой помогает искусственный интеллект?

Как опытный технологический аналитик с опытом работы в области искусственного интеллекта и журналистики, я внимательно следил за интеграцией искусственного интеллекта (ИИ) в различные отрасли, включая журналистику. Основываясь на своих исследованиях и опыте, я разделяю опасения Шеллмана относительно потенциального влияния ИИ на доверие читателей.


Как аналитик данных, я внимательно наблюдал за продолжающимися дебатами о влиянии ИИ на журналистское доверие с точки зрения читателей. Согласно моему анализу, некоторые читатели могут испытывать опасения по поводу использования ИИ журналистами из-за опасений получения неточной информации или предвзятого освещения. Однако я считаю, что прозрачность и четкое информирование журналистов об использовании ими ИИ могут помочь смягчить эти опасения. Объясняя, как ИИ используется для улучшения их работы, а не для замены человеческого суждения, журналисты могут завоевать доверие своей аудитории. Кроме того, поддержание редакционного надзора и процессов проверки фактов может еще больше гарантировать читателям надежность представленной информации. В конечном счете, как журналистам, так и разработчикам искусственного интеллекта важно уделять первоочередное внимание этическим принципам и прозрачности в своем сотрудничестве, чтобы сохранить доверие читателей.

Как помощник, обладающий опытом перефразирования, я бы посоветовал:

Как научный сотрудник Пулитцеровского центра по вопросам отчетности в области искусственного интеллекта 2022 года и профессор журналистики Нью-Йоркского университета я могу подтвердить, что такое действие потенциально может подорвать доверие читателей.

Влияние искусственного интеллекта (ИИ) на технологии достигло новых высот, побуждая каждый сектор изучать возможность его интеграции. В сфере персональных компьютеров презентация новейших ноутбуков Copilot+ служит свидетельством этой тенденции. Кроме того, крупные технологические компании, такие как Intel, AMD, Qualcomm и Apple, прилагают больше усилий для расширения возможностей искусственного интеллекта в своих процессорах.

Как исследователь, я заметил, что люди полагаются на источники новостей для получения точных и достоверных подробностей. Неверное цитирование источников или слишком сильная зависимость от искусственного интеллекта могут привести к многочисленным ошибкам в отчетности.

Эта новейшая одержимость искусственным интеллектом (ИИ) в журналистике производит настоящий фурор. Репортеры теперь имеют возможность использовать ИИ для различных задач, таких как проведение исследований, определение тем для интервью, сжатие объемных документов и генерация идей для новостных статей.

Будучи страстным последователем тенденций в журналистике, я не могу не заметить растущее опасение по поводу чат-ботов и обзоров искусственного интеллекта, которые потенциально искажают оригинальные репортажи без надлежащего источника. Эта обеспокоенность связана с потенциальным влиянием на посещаемость веб-сайтов и доходы новостных организаций. Однако важно признать, что ИИ расширил свою роль в журналистике за пределы этого вопроса. Фактически, сами журналисты все чаще используют эти передовые инструменты как ценные активы в своем рабочем процессе.

В недавней статье для PCMag было подробно рассмотрено журналистское применение искусственного интеллекта. Были представлены шесть различных методов, таких как использование искусственного интеллекта для выявления подходящих интервьюируемых, запрос чат-ботов для получения данных, недоступных с помощью поиска Google, и создание инновационных концепций статей.

С бурным ростом источников информации, вызванным блогами, а затем и социальными сетями, различие между подлинной журналистикой и манипулируемым контентом, включая пропаганду и даже «новостные» сайты, созданные искусственным интеллектом, становится все более сложной задачей.

Стоит ли доверять журналистике, которой помогает искусственный интеллект? 

Я признаю, что, по словам Шеллмана, ChatGPT предоставляет только один ответ. Однако он выражает обеспокоенность по поводу ее надежности. Проблема, по его мнению, заключается в том, что GPT иногда генерирует ответы, содержащие многочисленные «галлюцинации» или неточности.

По мнению Шеллмана, фундаментальные принципы журналистики заключаются в точности и предоставлении достоверной информации. Следовательно, при рассмотрении вопроса о применении инструментов ИИ важно оценить их возможности в отношении этих жизненно важных аспектов. Используйте эти инструменты, основываясь на их приверженности этим ключевым принципам.

При наборе данных, состоящем из 30 000 страниц, вручную просмотреть каждую из них было бы непосильной задачей.

Когда инструменты, которые мы используем, не обеспечивают идеальной точности, нам важно выявить их ограничения и найти подходящее применение. Например, Google Pinpoint, инструмент извлечения данных, разработанный Google для журналистов, может извлекать важных людей и места из обширных наборов данных. Однако если в вашем наборе данных содержится 30 000 страниц данных, вручную просматривать каждую страницу — не вариант.

Как технический энтузиаст, я бы сказал это так: когда инструмент предоставляет вам информацию о 12 полицейских участках из заданного набора данных, хотя есть небольшая вероятность, что она может быть не совсем точной, вы можете выразить это как «этот инструмент надежен на 95%». Помните, что знание ограничений инструментов имеет решающее значение для понимания их соответствующих применений и оценки достоверности предоставляемых ими данных.

Шеллманн также не считает, что страница результатов поиска Google является идеальным арбитром данных. 

Интересно, как мы рассматриваем поиск в Google как беспристрастный метод исследования в современном мире. Тем не менее, похоже, что мы оказываем значительное влияние на его результаты, сами формируя запросы.

«Очевидно, что этот список результатов организован для нас алгоритмически. Вместо одного ответа нам предлагают несколько вариантов. Однако мы не рассматриваем каждый вариант. Мы сосредотачиваем свое внимание на нескольких лучших совпадениях».

Вместо того, чтобы говорить «Джонатан Сома, профессор журналистики данных в Школе журналистики Колумбийского университета, который преподает ответственное использование искусственного интеллекта в редакции новостей», вы также можете выразить это так: «Джонатан Сома — преподаватель журналистики данных в Школе журналистики Колумбийского университета, где он специализируется об этическом применении технологий искусственного интеллекта в редакциях новостей».

«Несмотря на несовершенства искусственного интеллекта, проблема доверия читателей занимает второстепенное место в иерархии проблем, по словам Сомы. Он поясняет Laptop Mag, что отсутствие доверия к журналистике не связано с искусственным интеллектом, а скорее коренится в социальных и социальные вопросы. Люди могут подозревать: «Журналисты просто полагаются на ИИ. Мы больше не можем полагаться на их авторитет». «

Как аналитик, я бы сказал, что, хотя могут быть факторы, способствующие падению доверия к журналистике, это происходит не только по этим причинам. Судя по данным опроса Gallup 2023 года, указывающим на исторически низкий уровень доверия к средствам массовой информации, становится ясно, что проблема лежит глубже, чем конкретные инциденты или предубеждения. Вместо этого требуется всестороннее понимание и устранение основных причин, таких как, среди прочего, предполагаемая предвзятость, отсутствие прозрачности и истощение ресурсов.

Как прилежный аналитик, я осознаю важность тщательной проверки каждой информации из-за отсутствия каких-либо встроенных средств для оценки ее достоверности.

Сома осознает сложность интеграции искусственного интеллекта в работу редакции. Он отмечает, что, хотя ИИ может эффективно обрабатывать информацию, ему не хватает способности определять истину. Например, обобщение или извлечение данных из документов может привести к тому, что модели ИИ будут фабриковать факты, создавая утверждения, которые могут показаться статистически вероятными, но на самом деле являются необоснованными.

Как исследователь, я пришел к выводу, что эти языковые модели просто предсказывают следующее слово в последовательности, в результате чего образуются предложения, абзацы, ответы и разговоры. Однако эта способность генерировать текст не имеет ничего общего с достоверностью предоставляемой информации. Поэтому при использовании инструментов искусственного интеллекта для поиска документов или изучения маркетинговых материалов крайне важно тщательно проверять факты, поскольку эти модели не способны оценить точность.

Сома демонстрирует часть своей речи: «Я часто демонстрирую эту свою причуду, когда говорю: «Позвольте мне рассказать вам, что обо мне говорит GPT». В зависимости от того, как вы сформулируете свой запрос, он вызовет разные ответы. Например, если вы спросите о моем образовании, там может быть упомянута степень магистра в таких университетах, как Денверский университет или Высшая школа журналистики Колумбийского университета. Однако я этого не делаю. Я не обладаю степенями ни одного из этих учреждений».

Что дальше 

Продолжаются споры о том, как использование ИИ в журналистике может подорвать доверие читателей. Два эксперта высказывают сомнения относительно использования чат-ботов с искусственным интеллектом для сбора информации. Они предупреждают, что даже после такой проверки необходима обширная проверка фактов, однако присущая ИИ предвзятость остается проблемой.

Хотя у Google могут быть определенные предубеждения, Сома считает, что ChatGPT не дотягивает до сравнения. В то же время Шеллманн предупреждает: «Вынести окончательное суждение без проведения обширных исследований и изучения результатов исследований Google и ChatGPT — сложная задача».

БОЛЬШЕ ОТ НОУТБУКА MAG

  • Если бы вы могли спросить что-нибудь у NPC, вы бы это сделали?
  • Отчет: Samsung Galaxy Ring будет отслеживать неприятный, но важный показатель здоровья
  • Где сделать предзаказ на Asus ROG Ally X: какая модель подойдет именно вам?

Смотрите также

2024-07-03 22:30