Google, le cinque regole per rendere sicuro lo sviluppo dell’IA

24-06-2016 10:05 - Fonte: www.chimerarevo.com

Quello dell’Intelligenza Artificiale è un campo che trova applicazioni pratiche in ogni dove – praticamente dal motore di ricerca al robot autonomo ed intelligente – e, in quanto tale, è contemporaneamente visto con occhi pieni di fascino e sguardo sospettoso dalla maggior parte di scienziati, appassionati ed interessati in materia. Grandi nomi dell’attuale scena tecnologica – primo tra tutti, Elon Musk – hanno affermato a più riprese che sviluppare questo tipo di tecnologia senza criterio né prudenza è potenzialmente in grado di portare a scenari quasi apocalittici; sebbene questa possa essere un po’ esagerata come affermazione, è pur vero che sviluppare qualcosa che facilmente potrebbe finire fuori controllo non è il massimo della sicurezza. E’ per questo che Google, tra le aziende più impegnate e coinvolte nello sviluppo dell’Intelligenza Artificiale, per voce di Cris Olah del gruppo Google Research ha reso pubblico un post in cui si enunciano a chiare lettere cinque regole fondamentali da seguire per rendere più sicuro lo sviluppo dell’intelligenza artificiale. In realtà, le regole postate da Olah sono riconducibili ad uno studio pubblicato dalla stessa Google in collaborazione con le Università di Stanford e Berkeley ed OpenAI, che parla proprio dei problemi concreti in termini di sicurezza per lo sviluppo dell’IA. Dunque, suggerisce Olah, affinché si possa approcciare in maniera “pratica” e “sicura” alla progettazione, all’ingegnerizzazione ed allo sviluppo dei sistemi di Intelligenza Artificiale, bisogna innanzitutto dare risposta concreta a questi problemi: Effetti collaterali negativi: l’IA non deve essere in grado di disturbare l’ambiente circostante durante il completamento delle attività; Supervisione scalabile: per garantire l’efficacia dell’IA non deve esserci bisogno di continui feedback ...

- Continua...