Изследователи от DeepMind, подразделение на Google, демонстрираха успех в обучението на роботи да извършват сложни двигателни действия. Екипът обучи малки двуноги ботове да играят футбол. Изследователите обясниха как са успели да постигнат това.
Компанията е обучила роботите да играят с помощта на задълбочено обучение с подсилване – тоест ботовете са били обучени да обработват неструктурирани данни. Например, това не е набор от числа от 1 до 100, а напълно непредвидими данни, каквато е бързо променящата се игрална среда на полето.
Роботите действат по такъв начин, че да постигнат резултат, който е бил етикетиран като положителен по време на обучението: например ставането след падане е положителен резултат. Разликата между постижението и други подобни е, че методът е приложен за физическа координация на роботи в космоса.
Първоначално „субектите“ са обучени в компютърна симулация с концентрация върху две задачи: ставане след падане и отбелязване на гол. След това изследователите комбинират тези умения във футболна игра един на един. Играейки все повече и повече, роботите подобряват уменията си до точката, която виждате във видеото.
Броят на двигателните действия включва владеене на топката, защита, реакция на действията на противника и „насочена стрелба“ към вратата. Изследователите също така споменават, че роботите проявяват нестандартно поведение, което е трудно да се програмира предварително. Вижте повече.