
Компания Anthropic неожиданно закрыла свой экспериментальный блог Claude Explains, посвящённый возможностям языковой модели Claude. Блог, просуществовавший около месяца, был запущен в качестве пилотного проекта, призванного совместить запросы пользователей на обучающие материалы с маркетинговыми целями компании.
На страницах Claude Explains публиковались статьи на технические темы, например, «Упрощение сложных кодовых баз с помощью Claude».
При этом Anthropic не раскрывала, какая именно часть текста в статьях была написана самой моделью Claude, а какая – отредактирована людьми. Представители компании ранее заявляли, что над блогами работали эксперты и редакторы, которые дополняли черновики Claude «практическими примерами и контекстным знанием».
Планировалось расширить тематику блога, включив в неё креативное письмо, анализ данных и бизнес-стратегии.
Однако эти планы были скорректированы. Компания позиционировала Claude Explains как демонстрацию сотрудничества человеческого опыта и возможностей ИИ, подчёркивая, что цель не в замене специалистов, а в усилении их работы.
Иллюстрация: Leonardo Однако, как выяснилось, проект не получил однозначной положительной оценки. Отсутствие прозрачности в отношении того, какой именно текст был сгенерирован ИИ, вызвало критику в социальных сетях.
Некоторые пользователи посчитали блог попыткой автоматизировать контент-маркетинг, что вызвало опасения относительно этичности подобного подхода. Более того, по данным инструмента SEO-анализа Ahrefs, на момент закрытия блога на него ссылалось более 24 веб-сайтов, что свидетельствует о сравнительно высоком уровне вовлечённости аудитории за столь короткий период существования.
Вероятно, Anthropic также обеспокоилась возможными негативными последствиями, связанными с неточностью информации, генерируемой ИИ.
Случаи публикации неверных данных, сгенерированных искусственным интеллектом, уже были зафиксированы в крупных медиа-компаниях, таких как Bloomberg и G/O Media, что вызвало серьёзные репутационные потери.
Поэтому, закрытие Claude Explains может быть воспринято как превентивная мера, направленная на предотвращение подобных проблем. В итоге, проект продемонстрировал как возможности, так и сложности использования ИИ в создании контента, подчеркнув необходимость тщательной проверки и контроля над генерируемой информацией.
Рубрика: Технологии. Читать весь текст на www.ixbt.com.