CONDIVIDI:

Si parla di intelligenza artificiale e di linguaggio naturale al keynote di apertura del Google I/O 2021 che stiamo seguendo in diretta in questo momento. Una delle prime novità annunciate è LaMDA (Language Model for Dialogue Applications), progetto in sviluppo all”interno dell’azienda di Mountain View che ha tuttavia già raggiunto importanti traguardi nel campo della conversazione naturale.

COS’É

Possiamo parlare di machine learning all’ennesima potenza che ci consentirà di interloquire con l’assistente vocale e con il sistema di ricerca nel modo più colloquiale possibile, senza frasi pre-impostate, esattamente come se stessimo parlando con una persona reale: insomma, con LaMDA il linguaggio diventa più versatile, con sfumature. Non solo: alla domanda secca con risposta altrettanto secca (tipico dei chatbot) viene sostituito un modo più aperto di interagire, proprio come accade nelle conversazioni fisiche. Sai dove parti, ma non sai mai dove vai a finire. E Google, con questo progetto, è riuscita a replicare tale comportamento naturale, abilitando il sistema a coprire simultaneamente più di un argomento. “Una chiacchierata con un amico su uno show televisivo potrebbe evolversi in una discussione sul Paese in cui è stato girato lo spettacolo prima di iniziare un dibattito sulla migliore cucina regionale di quel Paese“, spiega sempre Google.

SENSIBILITÀ, SPECIFICITÀ E CORRETTEZZA

LaMDA si basa sull’architettura di rete neurale Transformer, resa open source da Google nel 2017. Sono le stesse fondamenta di BERT, con cui Google ha cercato di rendere più naturale e precisa la query a Google Search verso la fine del 2019. Così come BERT, anche LaMDA può essere educata per leggere parole o intere frasi, e soprattutto per capire nel miglior modo possibile come queste parole interagiscano/si combinino fra loro al fine di predire le successive parole per ottimizzare il risultato della ricerca.


CLICCA QUI PER CONTINUARE A LEGGERE

Di admin