10.05.2025
12 Street, Rome City, Italy
Technology

Grazie all’IA le auto parlano davvero


Una volta si parlava delle automobili, oggi si parla con le automobili.

Da quando infatti l’intelligenza artificiale ha iniziato a popolare le nostre vetture, la voce sta diventando sempre di più il tramite di un rapporto e non più semplicemente la metafora del suono del motore e dello scarico. L’automobile che parla nella finzione cinematografica arriva con la serie televisiva Supercar. Eppure la realtà era arrivata prima della fantasia. Quando infatti vanno in onda i primi episodi è il 1982 e già l’anno prima la Nissan aveva messo su strada la 300 ZX dotata di un sistema vocale rudimentale, sviluppato insieme all’americana National Semiconductor e basato su un magnetofono a disco, simile a quello di alcune bambole, in grado comunque di dire al guidatore se ha lasciato le luci accese o una portiera aperta.


Due anni dopo la Chrysler equipaggia la sua LeBaron del sistema EVA (Electronic Vehicle Alert) dotato di voce sintetica con 24 messaggi e fornito dalla Texas Instruments. Tecnicamente è assai più sofisticato poiché è una vera e propria scheda elettronica basata su tre microprocessori e la tecnologia è la stessa che nel 1978 l’azienda di Dallas aveva applicato a tre suoi famosi giocattoli educativi (Speak & Spell, Speak & Read e Speak & Math). Nello stesso anno anche l’industria automobilistica da questa parte dell’Atlantico dà voce ai propri prodotti. Arrivano praticamente in contemporanea la Renault 11 e la Austin Allegro, ansiose di sfoggiare la loro avveniristica tecnologia fatta di cruscotti digitali e sintetizzatori vocali. In Giappone negli anni ’90 nascono e si diffondono i primi sistemi di navigazione satellitare, subito seguiti da quelli che suggeriscono a voce le indicazioni al guidatore ed è la prima volta che non si tratta di segnali di allerta. Ma per vedere la prima automobile che riconosce comandi vocali bisogna aspettare la Acura RL nel 2005 il cui sistema è il ViaVoice sviluppato dalla IBM, pioniera dell’intelligenza artificiale.


È l’arrivo della connettività agli inizi del decennio scorso a dare l’impulso definitivo all’auto che non solo parla, ma risponde. Iniziano a farlo per primi gli smartphone, le automobili vengono subito ad andar loro dietro, ma non possono tenerne il passo: i dispositivi mobili sono collegati perennemente, si aggiornano over-the-air e sono nani sulle spalle di un gigante: il cloud che, spalleggiato da computer e software potentissimi, permette di comprendere perfettamente ogni parola, qualsiasi lingua si parli e con qualsiasi accento distribuendo la propria onniscenza.


Siri di Apple arriva nel 2011 e Google Assistant nel 2016, ma è nel 2014 che Alexa fa capire quale possa essere il potere della voce per qualsiasi tipo di dispositivo, automobile compresa: con la voce si possono compiere azioni come comprare, aprire il cancello di casa o anche avviare il climatizzatore di bordo, regolare il sistema audio, istruire il navigatore sulla destinazione desiderata senza dover impazzire con la tastiera e altro ancora. Se dunque il nemico non si può battere, meglio farselo amico.

Detto fatto: la triplice degli assistenti vocali entra nelle automobili grazie agli smartphone, ma anche come elementi “built-in” ovvero incorporati all’interno dei sistemi di bordo, ancora meglio se il software è identico a quello dei telefoni o si basa sugli stessi codici sorgente.


GLI STATI D’ANIMO

Nel frattempo però anche l’automobile inizia ad assomigliare sempre di più a un telefonino o a un tablet perché è connesso e aggiornabile. Anche in questo caso la finzione cinematografica arriva quasi in contemporanea e nel 2011, nel film di animazione Cars 2, il professor Zündapp ripete più volte, nel suo forte accento tedesco: «Oggi funziona tutto a comando vocale». Mercedes nel 2018 lancia il proprio sistema MBUX che si attiva con un semplice “Hey Mercedes!”, dunque con la voce stessa e non con un pulsante, come già avviene su tutti i telefonini e come avverrà, da quel momento in poi, su tutte le automobili. La voce però non è solo strumento di comando, ma anche di interazione, ascolto, espressione di stati d’animo e sentimenti che vanno oltre la grammatica. L’intelligenza artificiale può comprendere anche quelli ed elaborare risposte a tono, ma soprattutto rilanciare il discorso e, istruendo se stessa con i dati raccolti, avviare un dialogo con l’interlocutore basato sul linguaggio naturale, persino con battute di spirito. Provate a urlare a una Mercedes dotata di sistema MBUX e lei vi risponderà: «Dobbiamo lavorare sulla nostra relazione». O a fare lo stesso con una Mini e lei farà la vittima rispondendovi: «Non mi trattare così!».


UN VERO ASSISTENTE

C’è poi l’ingresso sulla scena di un altro attore fondamentale: ChatGPT. Il primo ad adottarlo è DS, seguono poi altri marchi del gruppo Stellantis, di Volkswagen, Mercedes e Renault. L’intelligenza artificiale di OpenAI in realtà non ha voce né orecchie, ma parla e ascolta attraverso il sistema di bordo con quest’ultimo che oggi si pone come mediatore tra più assistenti decidendo quale fare parlare: questo per facilitare la vita dell’utilizzatore, ma anche per tutelarne la riservatezza e ristabilire le gerarchie.


Le case vogliono dunque che i loro clienti ascoltino la voce del padrone. E ci stanno riuscendo. Secondo Mercedes infatti, da quando il suo sistema MBUX è in campo, il ricorso ad agenti vocali esterni si è dimezzato e la tendenza è destinata a diminuire grazie alla capacità di riconoscere anche più voci, di sostenere discorsi sempre più complessi e contestualizzati e infine di farlo in modo attivo e tenendo conto degli stati d’animo del proprio interlocutore grazie a sensori e algoritmi sempre più numerosi e sofisticati. Non dovremo dunque meravigliarci se le nostre automobili presto non aspetteranno un nostro “Hey” per parlare e lo faranno non solo per dirci che uno pneumatico è sgonfio ed è arrivato il momento di fare il tagliando, ma anche che nella vetrina del negozio nelle vicinanze c’è un vestito che ci starebbe a pennello o che, visto che siamo stanchi e nervosi, sarebbe meglio se ci facessimo un bel massaggio. 


Utilizzerà dunque un linguaggio emozionale e la differenza non sarà tanto nel cosa ci diranno, ma nel modo in cui ce lo diranno scegliendo i termini, i toni e il momento. E questo perché non è vero – come dice una famosa canzone – che l’emozione non ha voce: ce l’ha eccome, la macchina intelligente la sa già riconoscere e, sempre di più, la saprà riprodurre e suscitare.

© RIPRODUZIONE RISERVATA

© RIPRODUZIONE RISERVATA

Leave feedback about this

  • Quality
  • Price
  • Service
[an error occurred while processing the directive]