Apple присоединяется к Google, Microsoft и другим компаниям в принятии новых рекомендаций по безопасности ИИ: что это значит для вас

🎉 🎮 Привет! Тебе что, совсем нечем заняться? Идеально! Присоединяйся к нашему телеграм-каналу Roblox, где мы веселимся больше, чем в бочке с виртуальными обезьянками. Приходи за кубиками, оставайся, чтобы подшутить. Ты не пожалеешь об этом... наверное. Увидимся в чате! 🕹️ 🚀 👇

Roblox Telegram


Apple присоединяется к Google, Microsoft и другим компаниям в принятии новых рекомендаций по безопасности ИИ: что это значит для вас

Как технический энтузиаст и человек, внимательно следящий за последними достижениями в области искусственного интеллекта, я очень рад видеть, что Apple объединяет усилия с другими лидерами отрасли, такими как Google, Microsoft, Meta и OpenAI, для принятия новых правил безопасности в области искусственного интеллекта. Это важный шаг на пути к тому, чтобы технология искусственного интеллекта развивалась ответственно и этично на благо всех пользователей.


На выходных Apple подписала соглашение с Google, Microsoft, Meta, OpenAI и другими крупными игроками в сфере ИИ о принятии новых добровольных правил, направленных на повышение безопасности, защищенности и конфиденциальности технологий искусственного интеллекта для конечных пользователей.

Новые защитные меры возникли на основании указа администрации Байдена от октября 2023 года под названием «Указ о безопасной, надежной и заслуживающей доверия разработке и использовании искусственного интеллекта». В этом приказе указано более 270 предполагаемых действий по решению проблем безопасности и конфиденциальности, связанных с использованием ИИ.

Эта новость появилась в то время, когда Apple готовится к запуску этой осенью своей новой платформы Apple Intelligence AI. 

Согласие Apple с этими правилами безопасности ИИ также является хорошей новостью для пользователей. Вот почему. 

Apple присоединяется к лидерам в области ИИ, соглашаясь на новые меры защиты ИИ

Apple присоединяется к Google, Microsoft и другим компаниям в принятии новых рекомендаций по безопасности ИИ: что это значит для вас

Apple присоединяется к рядам 15 других технологических гигантов, обязуясь добровольно соблюдать недавно установленные правила безопасности в области искусственного интеллекта. Эти меры отдают приоритет безопасности и конфиденциальности пользователей.

Администрация Байдена заявила в заявлении для прессы от 26 июля, что Apple достигла всех 270 первоначальных целей, изложенных в указе от октября 2023 года.

Сегодня Apple присоединилась к списку компаний администрации, придерживающихся добровольных обязательств по обеспечению безопасности ИИ, подтвердив их значение как основополагающего элемента для этического развития ИИ.

Такие компании, как Microsoft, Google, Amazon и OpenAI, заявили о своем согласии с правилами.

В США это одна из первых законодательных попыток управлять сектором ИИ посредством добровольных гарантий. Это предложение возникает по мере того, как усиливаются дебаты по поводу защиты данных и безопасного использования новых технологий искусственного интеллекта, а их популярность в последние годы растет. Европейский Союз предпринял аналогичный шаг в августе 2023 года, введя правила, направленные на устранение рисков, связанных с безопасностью и конфиденциальностью ИИ.

Как эти новые меры защиты искусственного интеллекта защищают пользователей

Apple присоединяется к Google, Microsoft и другим компаниям в принятии новых рекомендаций по безопасности ИИ: что это значит для вас

Решение Apple поддержать правила безопасности в области искусственного интеллекта наряду с такими технологическими гигантами, как Microsoft, Google и OpenAI, означает, что эти компании стремятся обеспечить безопасность и надежность своих предложений по искусственному интеллекту для своих пользователей.

Стоит отметить, что в течение длительного периода времени ведутся серьезные дебаты по вопросам безопасности и конфиденциальности ИИ. Темы, вызывающие обеспокоенность, варьируются от споров об авторских правах до защиты персональных данных.

Как наблюдатель, я бы сказал это так: правила безопасности ИИ служат важнейшим контрольно-пропускным пунктом, гарантируя, что те, кто разрабатывает искусственный интеллект, несут ответственность за устранение потенциальных рисков и смягчение проблем.

В США введены новые меры безопасности для искусственного интеллекта (ИИ). Среди этих мер предосторожности — положения о создании приложений искусственного интеллекта в образовании, обеспечивающих безопасность учащихся. Кроме того, предоставляются рекомендации Института безопасности ИИ, которые помогут разработчикам защитить свои творения ИИ от потенциального неправильного использования. Кроме того, существуют правила, регулирующие влияние ИИ на права интеллектуальной собственности, включая патенты и авторские права.

В соответствии с новыми правилами инструменты искусственного интеллекта от компаний, соответствующих требованиям, должны будут соответствовать минимальным стандартам безопасности, повышая их безопасность от таких угроз, как утечка данных и создание неподходящего или вредного контента.

Усовершенствованные протоколы безопасности могут эффективно защитить от приложений искусственного интеллекта, предоставляющих опасные или ошибочные рекомендации, таких как печально известный эпизод «клеевой пиццы» с поисковой системой искусственного интеллекта Google, который недавно попал в заголовки газет.

«Галлюцинации» такого рода могут быть забавными, но они создают риск обмана неосведомленных читателей, особенно детей, которые могут не распознать неточности, с которыми они сталкиваются. Таким образом, реализация мер по минимизации таких галлюцинаций имеет решающее значение для обеспечения безопасности и улучшения общего пользовательского опыта.

Почему правила безопасности ИИ имеют решающее значение

К счастью, эти правила безопасности вводятся сейчас. С ростом достижений в области технологий искусственного интеллекта (ИИ) за последние несколько лет среди руководителей отрасли растут опасения по поводу вопросов безопасности и конфиденциальности.

OpenAI оказалась в центре разногласий после ухода ключевых членов ее команды по безопасности и этике в начале года. В ответ группа бывших сотрудников OpenAI в июне опубликовала открытое письмо, призывая к более строгим протоколам безопасности и повышению прозрачности со стороны корпораций, занимающихся искусственным интеллектом.

Аналогичным образом, после ухода из OpenAI в мае Ян Лейке выразил свои опасения и поделился наблюдениями. Он заявил, что соображения безопасности были омрачены разработкой привлекательных продуктов за последние несколько лет.

За последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией.

Важность безопасности в генеративном искусственном интеллекте все больше подчеркивается, причем эта проблема переплетается с проблемами конфиденциальности. Например, с момента запуска DALL-E в 2022 году возникли споры о возможных последствиях нарушения авторских прав со стороны такой технологии.

В то же время люди могут невольно поставить под угрозу безопасность своих личных данных, когда они используют технологии искусственного интеллекта, некоторые приложения которых собирают пользовательскую информацию для повышения производительности. Кроме того, пользователям стало крайне важно различать контент, созданный искусственным интеллектом, в источниках новостей, что потенциально может усугубить распространение лжи.

Решение Apple принять новейшие меры безопасности в области искусственного интеллекта подразумевает обязательство Apple Intelligence уделять приоритетное внимание конфиденциальности пользователей. Это может объяснить задержку его выпуска, поскольку обеспечение защиты конфиденциальности требует времени, но это стоящая инвестиция в предложение более безопасных возможностей искусственного интеллекта.

Другие материалы из журнала Laptop Magazine

  • Марк Цукерберг делится важным сообщением о будущем искусственного интеллекта
  • «Генераторный искусственный интеллект никогда не был исключен из обсуждения»: Тим Кук откровенно рассказывает MKBHD о философии искусственного интеллекта Apple
  • Можно ли доверять журналистике, которой помогает искусственный интеллект?

Смотрите также

2024-07-29 19:00