L’intelligenza artificiale secondo Facebook al WiredNextFest

L’intelligenza artificiale secondo Facebook al WiredNextFest

Nella giornata di oggi, durante il primo giorno del Wired Next Fest, Antoine Bordes, ha tenuto una conferenza nel quale ha illustrato quali sono i passati avanti che Facebook ha compiuto nel campo del A.I e nel machine learning. 

Secondo quanto ha dichiarato Antoine Bordes, l’azienda di Zuckerberg sta portando avanti un programma decennale puntando soprattutto sui social network più diffusi, Instagram, Facebook e Whatsapp, sviluppando particolari algoritmi e tecnologie divise in tre grandi macroaree  connettività, VR e AR e le IA.

Antoine Bordes

Attualmente Facebook ha organizzato il proprio lavoro sulla IA (intelligenza artificiale)  in quattro zone aree principali che corrispondono alle funzioni che il nostro cervello compie nell’analizzare la realtà:

  • Percezione, 
  • Comprensione, 
  • Predizione
  • Pianificazione

Tutto il progetto di Facebook, riguardo la realtà aumentata, si basa in pratica sulla capacità di comprensione del sistema, infatti la “percezione” riguarda il modo in cui l’IA comprende le figure di una semplice foto o in un qualsiasi video.

Si pensi solamente che, negli ultimi cinque anni, il machine learning è passato dal distinguere e capire la presenza di una persona all’interno di una foto, al distinguere la maggior parte degli oggetti presenti e abbozzare perfino le articolazioni della persona nell’immagine. 

Una tecnologia che potrebbe portarci dei grandi vantaggi nella realtà di tutti i giorni, potremmo per esempio ricevere istantaneamente il prezzo di un prodotto, le sue recensioni,  tutte le informazioni relative ad un computer, ad un auto o perfino ad un determinato ristorante o pizzeria, solamente scattando una foto all’insegna.

Un sistema avanzato che non avrebbe realmente confini e potrebbe essere applicato ad infiniti campi e settori.

Ma Facebook si è resa conto che per rendere l’A.I più flessibile e “intelligente” bisogna migliorare la sua capacità di mettere in relazione gli oggetti e di renderli possibile tutto ciò che per noi attualmente è evidente e superfluo. Una cosa che per un sistema computerizzato ad oggi è abbastanza difficile basandosi su probabilità e dati certi. L’unico modo per riuscirci è continuare a fare domande sempre più complesse, cercando di correggere gli errori e individuando dei pattern che la macchina possa capire.

Rimanendo nel campo delle comprensioni sono anche molto interessanti i grandi passa avanti che si sono riusciti a fare negli ultimi mesi; oggi per esempio il computer riesce a capire tutte le informazioni che gli servono, solamente consultando il database di Wikipedia, così da riuscire a rispondere a tutte le nostre più “assurde” domande che gli poniamo.

Legato invece al quarto punto, alla pianificazione, ci sono gli algoritmi predittivi, ovvero far capire all’IA ciò che succederà e non ciò che sta accadendo. Un processo che il nostro cervello processa in un attimo, grazie ad una serie di informazioni basate su fisica, oggetti presenti, la relazione tra essi e il contesto. Un processo che per ottenerlo sull’IA, si deve prima insegnargli tutto quello che fino ad ora noi sappiamo e fornirli tutte le informazioni possibili, affinchè  risponda a tutte le nostre domande in maniera comprensibile ed eviti situazioni potenzialmente pericolose.
Un esempio di predizione è il sistema che utilizzano le auto a guida autonoma, oppure gli apparecchi elettromedicali in grado di avvisare i pazienti di una possibile crisi cardiaca, o i sistemi di sicurezza avanzata e antiterrorismo, che riescono quasi a predire dove potrà avvenire un potenziale attentato.

Tutti sistemi che già in parte esistono e funzionano egregiamente, ma che devono ancora essere perfezionati perchè gli algoritmi ancora non hanno un potenziale tale da per poter essere utilizzati in altri ambiti e settori e soprattutto nella vita di tutti i giorni, integrati nelle nostre applicazioni preferite.