date

Anthropic: Модели Claude теперь могут останавливать вредоносные беседы

Anthropic: модели Claude теперь могут самостоятельно останавливать вредоносные беседы

По данным TechCrunch, компания Anthropic объявила, что некоторые из её моделей Claude теперь способны самостоятельно останавливать вредоносные или оскорбительные беседы.

По словам компании, эта функция направлена на повышение безопасности в онлайн-общении и защиту пользователей от психологического или морального вреда.

Эксперты отмечают, что этот шаг может повысить уровень ответственности ИИ в общении с человеком и способствовать созданию здоровой атмосферы в цифровой среде.

Ctrl
Enter
Нашли оШибку
Выделите текст и нажмите Ctrl+Enter
Новости » Технологии » Anthropic: Модели Claude теперь могут останавливать вредоносные беседы