Главное:
- Искусственный интеллект Apple создает ложные уведомления о новостях.
- Недавний инцидент включает неверное сообщение о победе Луки Литтлера на чемпионате по дартсу.
- Apple работает над обновлением, чтобы улучшить точность своих уведомлений.
Проблемы с AI и информацией
На прошлой неделе пользователи iPhone столкнулись с проблемами, связанными с новыми функциями, которые Apple внедрила в свою платформу. Искусственный интеллект компании, который обрабатывает уведомления от приложений, выдавал неверно интерпретированные новости. Одним из самых обсуждаемых случаев стало утверждение о том, что британский дартсмен Лука Литтлер выиграл чемпионат PDC World Darts, хотя финал еще не состоялся. Этот инцидент стал предметом значительного обсуждения, ведь всего через день состоялся сам матч, в котором Литтлер, действительно, одержал победу.
Хотя подобные ошибки можно было ожидать в рамках тестирования новых функций, важно отметить, что это не первый случай неточной работы AI Apple. Британская телерадиокомпания BBC уже больше месяца пытается привлечь внимание к аналогичным проблемам. В декабре AI создал ложное уведомление о намерении одного из задержанных по делу о преступлении, что стало еще одним ударом по репутации технологий от Apple.
Обратная связь пользователей и исправления
Apple признала, что текущие уведомления, созданные их AI, выводят информацию так, будто она поступает напрямую от источника, что вводит пользователей в заблуждение. В ответ на критику компания заявила, что работает над обновлениями, которые позволят более четко обозначать, какие уведомления были созданы с помощью AI.
Представители Apple подчеркнули свои планы по улучшению технологии, выражая готовность к взаимодействию с пользователями и просьбами о возможных улучшениях. Разработка теперь включает внедрение маркировки, чтобы пользователи могли видеть, какие сообщения — это результат работы AI, и предостерегать их от неверной интерпретации.
Опасности так называемых «галлюцинаций» в AI
Феномен, наблюдаемый в технологиях искусственного интеллекта, известен как «галлюцинация». Это означает, что система генерирует контент, который не соответствует действительности, но делает это с высокой степенью уверенности. Такие ситуации вызывают озабоченность среди экспертов по AI, которые утверждают, что недостаточная точность систем может вести к распространению дезинформации.
Как утверждает Бен Вуд, ведущий аналитик компании CCS Insights, подобные ошибки не уникальны для Apple, и они могут проявляться во многих продуктах, использующих AI. Это вызывает у пользователей недовольство и ставит под сомнение надежность таких продуктов. Поскольку Apple демонстрирует давление со стороны конкурентов, важно следить за тем, как компания реагирует на эти вызовы и какие меры предпринимает для улучшения своего программного обеспечения.
Добавить комментарий