Даже 0,001% неверных обучающих данных ставит под угрозу безопасность языковых моделей ИИ
Даже самые незначительные ошибки в данных могут манипулировать языковыми моделями ИИ, такими как ChatGPT или Claude, что сопряжено с рисками, особенно в медицинской сфере, как показывает исследование Нью-Йоркского университета.
Какова ваша реакция?