Anthropic: Модели Claude теперь могут останавливать вредоносные беседы

По данным TechCrunch, компания Anthropic объявила, что некоторые из её моделей Claude теперь способны самостоятельно останавливать вредоносные или оскорбительные беседы.
По словам компании, эта функция направлена на повышение безопасности в онлайн-общении и защиту пользователей от психологического или морального вреда.
Эксперты отмечают, что этот шаг может повысить уровень ответственности ИИ в общении с человеком и способствовать созданию здоровой атмосферы в цифровой среде.
Читайте «Zamin» в Telegram!Ctrl
Enter
Нашли ошибку?
Выделите фразу и нажмите Ctrl+Enter