🎉 🎮 Привет! Тебе что, совсем нечем заняться? Идеально! Присоединяйся к нашему телеграм-каналу Roblox, где мы веселимся больше, чем в бочке с виртуальными обезьянками. Приходи за кубиками, оставайся, чтобы подшутить. Ты не пожалеешь об этом... наверное. Увидимся в чате! 🕹️ 🚀 👇
Roblox Telegram
Как опытный энтузиаст искусственного интеллекта, который годами следил за его развитием, я не могу не чувствовать одновременно удивления и беспокойства, прочитав о недавних открытиях Apple. С одной стороны, интересно видеть, как далеко мы продвинулись с большими языковыми моделями, такими как ChatGPT — они действительно кажутся умными, не так ли? Но с другой стороны, немного обескураживающе узнать, что их логические рассуждения не так развиты, как кажется.
ChatGPT кажется более умным, а не становится умнее на самом деле? Это то, что предлагает Apple.
На выходных группа специалистов по искусственному интеллекту из Apple опубликовала исследование, в котором говорится, что многим известным крупномасштабным языковым системам искусственного интеллекта может не хватать способности к сложному мышлению, вопреки их внешнему виду интеллекта.
Кажется, что языковые модели, такие как ChatGPT, с каждым годом становятся все более изощренными, кажущимися более «интеллектуальными». Однако лежащая в их основе логика не претерпела существенных изменений. Согласно выводам Apple, эти модели могут функционировать скорее как расширенные средства сопоставления шаблонов, а не как настоящие логические рассуждения.
Это исследование предполагает потенциальные последствия для современных систем искусственного интеллекта. Возможно, на данный момент разумно уделить приоритетное внимание улучшению функций безопасности в моделях ИИ, а не фокусироваться исключительно на том, чтобы сделать их более интеллектуальными.
Исследователи Apple AI обнаружили, что у выпускников LLM проблемы с математикой в начальной школе
Группа экспертов по искусственному интеллекту из Apple недавно представила результаты новой оценки под названием GSM-Symbolic, которая представляет собой новое препятствие для более крупных языковых моделей в их исследованиях.
Оказывается, самые продвинутые модели ИИ, доступные сегодня, не так способны к сложным рассуждениям, как можно было бы предположить, даже если они могут показаться вполне разумными.
Как исследователь, я могу сказать, что GSM-символический тест выявил некоторые проблемы, с которыми столкнулись мои модели ИИ при решении элементарных математических задач. Интересно, что по мере увеличения сложности вопросов ИИ становилось все труднее давать точные результаты.
В своем исследовании исследователи обнаружили, что включение ненужных, но, казалось бы, важных деталей значительно снижает производительность на целых 65% во всех моделях высшего уровня применительно к логике решения проблем.
Как аналитик данных, я могу подчеркнуть, что модели изучения языка (LLM) сталкиваются с проблемами, особенно когда им представлены многочисленные экземпляры одного и того же запроса или вопросов, имеющих сопоставимые, но несущественные детали.
Сегодняшним продвинутым моделям ИИ часто бывает сложно решать логические вопросы, такие как математические задачи, потому что они в первую очередь изучают закономерности на основе данных, на которых обучались, а не выполняют математические операции, как это делают люди. Это говорит о том, что, хотя большие языковые модели могут показаться разумными, их кажущийся интеллект во многом обусловлен их способностью убедительно имитировать умное поведение, а не реальным пониманием.
Это мнение согласуется с заявлениями генерального директора OpenAI Сэма Альтмана, который утверждает, что ИИ в настоящее время не обладает значительными когнитивными способностями по сравнению с тем, чего он потенциально мог бы достичь. Компания OpenAI известна своим ChatGPT, а Альтман проявил большой интерес к разработке искусственного общего интеллекта (AGI), типа ИИ, способного к продвинутым логическим рассуждениям.
Согласно выводам Apple, они подчеркивают важность проведения дополнительных исследований. В их выводе говорится, что такие исследования помогут создать усовершенствованные модели ИИ, способные к логическим рассуждениям, а не просто к распознаванию закономерностей, что позволит этим моделям более комплексно и последовательно решать проблемы в широком диапазоне ситуаций.
ИИ, возможно, еще не умен, но все равно может быть опасен
Согласно результатам исследования команды искусственного интеллекта Apple, современные продвинутые языковые модели могут не работать исключительно в эпизоде «Ты умнее, чем пятиклассник». Несмотря на это, важно отметить, что ИИ по-прежнему может оставаться мощным инструментом, способным быть как чрезвычайно полезным, так и потенциально вредным. Исследование Apple подчеркивает ключевую характеристику и возможный риск ИИ: его способность имитировать или подражать.
Хотя может показаться, что чат-боты, такие как ChatGPT, рассуждают так же, как люди, важно отметить, что это в первую очередь имитация человеческого языка и моделей мышления, а не подлинные логические рассуждения. Это не умаляет впечатляющих способностей ИИ, но подчеркивает разницу между имитацией человеческого поведения и настоящей когнитивной обработкой. К сожалению, недобросовестные люди поспешили использовать эти достижения в гнусных целях.
На выходных технический YouTube-блогер Маркес Браунли рассказал на платформе X, что фирма использовала искусственный интеллект, чтобы имитировать его голос в рекламе своих товаров. Интересно, что эта имитация, созданная искусственным интеллектом, поразительно похожа на настоящий голос Браунли. Похоже, что реклама была создана для того, чтобы заставить зрителей поверить в то, что Браунли продвигал их продукт, с которым он не был связан.
К сожалению, подобные случаи становятся все более частыми. Например, мы видели ложную поддержку президентов со стороны Тейлор Свифт и обвинения OpenAI в том, что она якобы использовала голос Скарлетт Йоханссон без ее согласия.
Хотя обычные пользователи могут чувствовать, что отраслевые разногласия не затрагивают напрямую их опыт, важно признать, что эти дебаты могут иметь значительный вес в секторе искусственного интеллекта. Такие инструменты, как ChatGPT и Gemini, которые представляют практическую ценность для многих людей, несомненно, впечатляют. Однако именно основные проблемы, рассматриваемые в этих противоречиях, формируют основу, на которой строятся эти полезные инструменты.
Тем не менее, злоупотребление искусственным интеллектом для создания дипфейков, обмана и мошеннических действий представляет значительную опасность не только для самой технологии, но и для всех, кто сталкивается с ней, намеренно или непреднамеренно.
Другие материалы из журнала Laptop Mag
Смотрите также
- Отказ от ответственности: руководство по эпизодам: у нового сериала Apple TV+ странный график выхода
- Как получить эмоции в Roblox: The Strongest Battlegrounds
- Как исправить ошибку 500 в Roblox
- Где найти ласты и прибой в Фише
- Аниме: Последняя битва: как развить Сукуну и получить бесплатные Проклятые пальцы в БАС
- Все местоположения торговых автоматов в GPO — Roblox
- Как Meta Quest 3 может обернуться катастрофой для Apple Vision Pro
- Как поймать аллигатора в рыбалке
- Официальный Shonen Unleashed Trello Link и Discord
- 50 звуковых идентификаторов убийств для Legends Battlegrounds – Roblox
2024-10-15 02:00