Специалисты OpenAI обнаружили токсичное поведение в моделях ИИ
Сотрудники OpenAI провели исследование и выяснили, что в моделях ИИпоявляются несогласованные моменты. В основном они кажутся людям случайными,бессвязными, однако исследователи обнаружили в них закономерности, пишетTechCrunch.
По данным издания, такие особенности в целом соответствуют токсичномуповедению в ответах. Это значит, что искусственный интеллект может обманыватьили давать информацию, которая не соответствует запросу. При этом покаспециалисты OpenAI могут сами повышать или понижать количество такихответов.
Эти исследования проводятся для выявления небезопасных сценариев поведенияИИ. Акцент сделан на том, чтобы исключить их. Тем не менее пока специалистыкомпании не могут до конца понять, почему искусственный интеллект начинаетлгать.