Google e l'intelligenza artificiale

Gli ingegneri di Google stanno lavorando ad una vera e propria intelligenza artificiale. E chi potrebbe riuscirci se non una formidabile multinazionale dell'informatica come Google?


Google svilupperà l’intelligenza artificiale

Amit Singhal, l’ingegnere informatico inventore dell’algoritmo di ricerca di Google (il più grande ed utilizzato motore di ricerca al mondo), ha spiegato in teleconferenza da Londra (per un pubblico d’elite di soli nove interlocutori in tutta Europa) la portata tecnologico-scientifica del progetto a cui sta lavorando.

Singhal si dice pronto a sviluppare un “pc pensante”: in grado di giungere ad una perfetta conoscenza delle cose, paragonabile a quella che caratterizza l’intelligenza ed il funzionamento del cervello umano.

Ma com’è possibile per un computer, macchina calcolatrice fatta di sequenze di numeri, dispositivi elettronici, link e processori elaborare un’intelligenza artificiale che lo innalzi ad un tale livello di conoscenza?

La risposta è Google knowledge graph, il diagramma della conoscenza, ed è il nome del progetto che Singhal sta portando avanti con orgoglio. L’ingegnere n°1 del team di Google tratteggia una breve sintesi della storia dei “meccanismi d’intelligenza” dei pc fino ad illustrare le sue aspettative e le sfide che ruotano attorno alla sua missione.

I primi computer lavoravano in modo confusionario. Se gli si diceva “apple”, non riuscivano a capire se stessimo cercando il frutto oppure l’azienda di Steve Jobs. Con l’avvento di “Page Rank” è subentrato il concetto di “rilevanza” a mettere in ordine di frequenza d’utilizzo e importanza prioritaria le parole ricercate, ma era una soluzione ancora troppo dispersiva.
Miglioramenti significativi si sono avuti nel 2003 con “Fritz” (che aggiornava l’indice con costanza e regolarità) e l’anno scorso con “Panda” e “Penguin”. Il Panda update introdotto agli inizi del 2011 (tra febbraio e marzo) aveva lo scopo di limitare e praticamente eliminare dalla ricerca tutti quei siti che pubblicavano informazioni di poco conto e/o copiate solo per attirare visitatori sulle proprie pagine e guadagnare con AdSense.

Dal mese di aprile dello stesso anno l’azienda di Google ha apportato altre importanti modifiche all’algoritmo del suo motore di ricerca introducendo l’aggiornamento Penguin. Il nuovo update ha scatenato il panico in rete poiché alcuni siti vedevano crollare improvvisamente il loro traffico. Obiettivo primario di Penguin è quello infatti di eliminare lo spam dai primi posti dei risultati di ricerca, garantendo ancora di più una buona qualità delle pagine web.
In sintesi, mira a offrire agli utenti delle pagine realmente utili ed efficaci e non contenuti ingannevoli o “specchietti per le allodole” solo per essere presenti all’interno dei risultati.

L’algoritmo di Google è riuscito quindi a raffinarsi con il passare del tempo, anche per stare al passo con situazioni che alcuni anni fa non erano così attive e presenti nel web, come lo spam, i social network, i duplicati delle informazioni, ecc.

Però, stando alle parole di Amit Singhal, il vero giro di boa nella creazione di una più umana conoscenza l’ha dato “Universal Search”, la modalità tramite cui vengono visualizzati i risultati di ricerca.
Universal Search è riuscito a concretizzare una separazione tra “parole” e “cose”, inserendo nei risultati di ricerca non solo i link diretti alle pagine ma anche foto, video, mappe e news. Tutti elementi che il motore di ricerca “conosce” con le loro peculiari caratteristiche.

Singhal tiene a precisare che il suo progetto sta muovendo solo i primi passi. Sono solo all’inizio della costruzione di una specie di acceleratore di particelle e per ora si possono solo ipotizzare quali saranno i risultati e le conseguenze.

Hai commenti? Idee o suggerimenti per questo articolo? Clicca qui

One Response

  1. molare26@yahoo.it 18 maggio 2012

Lascia un commento e ti risponderò!

Il tuo indirizzo email non sarà pubblicato.