Google DeepMind AI: Ora rubinetti in sogni ad imparare più velocemente

0
246
google-deepmind-go.jpg

Google DeepMind nuovo agente utilizza la stessa profonda rinforzo metodi di apprendimento che è impiegato in precedenza per padroneggiare il gioco.

Immagine: Claire Reilly/CNET

L’ultima IA creazione dai ricercatori di Google DeepMind laboratorio è IRREALE, particolarmente veloce agente che potrebbe affrontare compiti più complessi che solo i giochi.

DeepMind ricercatori presentare i loro risultati in un nuovo documento che descrive senza supervisione, di Rinforzo e di Ausiliari di Apprendimento o IRREALE, che in parte prende in prestito dal modo in cui gli animali sogno, per velocizzare l’apprendimento.

Test di agente per Atari e giochi 3D gioco di Labirinto, hanno scoperto che era in grado di imparare a 10 volte più veloce rispetto ai suoi precedenti algoritmi. Esso inoltre è in media l ‘ 87 per cento esperto di human performance sul Labirinto.

Come DeepMind basato a Londra ricercatori spiegano, l’agente utilizza la stessa profonda rinforzo metodi di apprendimento che è impiegato in precedenza per padroneggiare il gioco e diversi Atari 2600 giochi.

Tuttavia, ciò che rende IRREALE speciale è che è stata ampliata con due ulteriori attività, di cui uno in prestito da come animali da sogno e un altro che ricorda come i bambini a sviluppare le abilità motorie.

“Proprio come gli animali sognare positivamente o negativamente-gratificante eventi più frequentemente, i nostri agenti preferenzialmente riprodurre le sequenze contenenti gratificante eventi”, scrivono nella carta.

I ricercatori hanno usato questo concetto per insegnare l’agente di concentrarsi su indicazioni visive e la sua recente storia di esperienze, che il segnale di scorciatoie per maggiori ricompense.

“L’agente è addestrato per predire l’insorgenza di premi immediati a breve di un contesto storico. Per gestire al meglio lo scenario in cui le ricompense sono rari, vi presentiamo l’agente con il passato, gratificante e non gratificante storie in uguale proporzione,” hanno spiegato in un blogpost.

“Di apprendimento gratificante storie molto più frequentemente, l’agente è in grado di scoprire le caratteristiche visive predittivi di ricompensa molto più veloce.”

L’altra attività riguarda il modo in cui l’agente di controllo di pixel sullo schermo in modo che si concentra sull’apprendimento di azioni per raccontare ciò che è utile per giocare bene e segnare molto di più in un determinato gioco.

Utilizzando tre tecniche combinate, i ricercatori hanno testato l’agente 57 Atari giochi e 13 livelli del Labirinto.

Parte del successo è non solo la creazione di un agente che eccelle in ogni gioco, ma che l’agente non ha bisogno di essere personalizzato per imparare ogni gioco.

Come i ricercatori hanno sottolineato, DeepMind obiettivo principale è quello di rompere un nuovo terreno in AI, l’utilizzo di programmi che “è possibile imparare a risolvere ogni problema complesso, senza bisogno di essere insegnato come”. Così, ora hanno un più veloce apprendimento agente e uno che è anche più flessibile.

“Ci auguriamo che questo lavoro ci permetterà di scalare i nostri agenti sono sempre più complesse ambienti”, i ricercatori hanno detto.

CNET: ai’s just not that into you — sicurezza