Guida autonoma: MIT e Microsoft la insegnano agli algoritmi
Ci sono casi in cui gli algoritmi di guida autonoma non bastano: un nuovo modello dei ricercatori del MIT e di Microsoft permette di correggerne gli errori.
Le auto a guida autonoma sono in grado di distinguere una ambulanza da un normale furgone bianco e, di conseguenza, rallentare e dare la precedenza anche se l’ambulanza viene da sinistra o cambia corsia in autostrada a sirene spiegate? No, ancora no, ma potrebbero essere in grado di farlo a breve grazie a un nuovo modello sviluppato dai ricercatori del MIT e di Microsoft.
Questo nuovo modello nasce per migliorare i sistemi e gli algoritmi di intelligenza artificiale, come quelli delle auto che si guidano da sole, in base agli input forniti dagli umani. I software che gestiscono la guida autonoma, infatti, sono programmati per rispondere a determinate situazioni tipo in modo standard, ma ci sono casi in cui questo non basta per garantire la sicurezza della guida.
L’auto senza conducente, a volte, commette un errore imprevisto nel mondo reale perché si verifica un evento che dovrebbe alterare il comportamento della vettura, ma in realtà ciò non succede. I ricercatori, allora, hanno messo a punto un modello che utilizza gli input umani per scoprire questi “punti ciechi” della programmazione dei software di guida autonoma.
In pratica è stata creata una routine standard di addestramento delle auto senza conducente, che altro non è se non una simulazione al computer di vari scenari reali, a cui si aggiunge un essere umano che controlla le azioni del sistema mentre agisce nel mondo reale, fornendo feedback quando il sistema compie (o sta per compiere) errori.
I dati provenienti dalla routine di addestramento e quelli provenienti dai feedback umani vengono combinati e dati in pasto ad algoritmi di machine learning per produrre un modello che individua le situazioni in cui il sistema ha bisogno di più informazioni su come agire correttamente per evitare errori.
“Il modello aiuta i sistemi autonomi a conoscere meglio ciò che non sanno – afferma il ricercatore del MIT Ramya Ramakrishnan – Molte volte, quando questi sistemi vengono implementati, le simulazioni di addestramento non corrispondono al contesto reale e i software potrebbero commettere errori e causare incidenti. L’idea è di usare gli umani per colmare il divario tra la simulazione e il mondo reale, in modo sicuro, in modo da poter ridurre alcuni di questi errori“.
Questa nuova procedura potrebbe aiutare a superare uno dei limiti più grandi della guida autonoma: il fatto che gli algoritmi considerano tutte le situazioni simili come uguali. Se su dieci volte un’auto driverless incontra un furgone bianco, ma solo una volta tale furgone è un’ambulanza, non è accettabile che anche per una sola volta il software imponga all’auto un comportamento pericoloso.