Академия

Будущие ИИ-системы могут нуждаться в профилактике деградации

Риск деградации обусловлен тем, что эти системы обучаются на слишком большом объеме разнообразных данных, считает директор Института системного программирования им. В.П. Иванникова РАН Арутюн Аветисян.

Нейросети в основе «умных» чат-ботов и других систем могут потребовать развития методов предотвращения деградации, риск которой обусловлен тем, что эти системы обучаются на слишком большом объеме разнообразных данных. Такое мнение журналистам высказал директор Института системного программирования им. В.П. Иванникова РАН Арутюн Аветисян.

«Буквально недавно говорили о том, что система ChatGPT деградировала местами — на вопросы не так отвечает. Дело в том, что если она обучается на массе [данных], то она в каком-то смысле усредняется. Поэтому нужно будет специально заниматься тем, чтобы она не деградировала, если система будет обучаться на всех данных, которые есть вокруг неё», — сказал Аветисян.

Академик указал на то, что дефекты работы ИИ-систем, которые можно будет сравнить с развитием болезни Альцгеймера у людей, станут актуальны на следующих этапах развития искусственного интеллекта.

«Мы еще в начальной стадии находимся. Не нужно относиться к современной версии ИИ как к сильному искусственному интеллекту. Это пока некое машинное обучение. Хотя есть мнения, что в ближайшие два–три года это будет явью, другие <…> [учёные] говорят, что не раньше, чем через 20–30 лет», — заключил он.

Источник: ТАСС.

Новости Российской академии наук в Telegram →