Una volta si parlava delle automobili, oggi si parla con le automobili.
Da quando infatti l’intelligenza artificiale ha iniziato a popolare le nostre vetture, la voce sta diventando sempre di più il tramite di un rapporto e non più semplicemente la metafora del suono del motore e dello scarico. L’automobile che parla nella finzione cinematografica arriva con la serie televisiva Supercar. Eppure la realtà era arrivata prima della fantasia. Quando infatti vanno in onda i primi episodi è il 1982 e già l’anno prima la Nissan aveva messo su strada la 300 ZX dotata di un sistema vocale rudimentale, sviluppato insieme all’americana National Semiconductor e basato su un magnetofono a disco, simile a quello di alcune bambole, in grado comunque di dire al guidatore se ha lasciato le luci accese o una portiera aperta.
Due anni dopo la Chrysler equipaggia la sua LeBaron del sistema EVA (Electronic Vehicle Alert) dotato di voce sintetica con 24 messaggi e fornito dalla Texas Instruments. Tecnicamente è assai più sofisticato poiché è una vera e propria scheda elettronica basata su tre microprocessori e la tecnologia è la stessa che nel 1978 l’azienda di Dallas aveva applicato a tre suoi famosi giocattoli educativi (Speak & Spell, Speak & Read e Speak & Math). Nello stesso anno anche l’industria automobilistica da questa parte dell’Atlantico dà voce ai propri prodotti. Arrivano praticamente in contemporanea la Renault 11 e la Austin Allegro, ansiose di sfoggiare la loro avveniristica tecnologia fatta di cruscotti digitali e sintetizzatori vocali. In Giappone negli anni ’90 nascono e si diffondono i primi sistemi di navigazione satellitare, subito seguiti da quelli che suggeriscono a voce le indicazioni al guidatore ed è la prima volta che non si tratta di segnali di allerta. Ma per vedere la prima automobile che riconosce comandi vocali bisogna aspettare la Acura RL nel 2005 il cui sistema è il ViaVoice sviluppato dalla IBM, pioniera dell’intelligenza artificiale.
È l’arrivo della connettività agli inizi del decennio scorso a dare l’impulso definitivo all’auto che non solo parla, ma risponde. Iniziano a farlo per primi gli smartphone, le automobili vengono subito ad andar loro dietro, ma non possono tenerne il passo: i dispositivi mobili sono collegati perennemente, si aggiornano over-the-air e sono nani sulle spalle di un gigante: il cloud che, spalleggiato da computer e software potentissimi, permette di comprendere perfettamente ogni parola, qualsiasi lingua si parli e con qualsiasi accento distribuendo la propria onniscenza.
Siri di Apple arriva nel 2011 e Google Assistant nel 2016, ma è nel 2014 che Alexa fa capire quale possa essere il potere della voce per qualsiasi tipo di dispositivo, automobile compresa: con la voce si possono compiere azioni come comprare, aprire il cancello di casa o anche avviare il climatizzatore di bordo, regolare il sistema audio, istruire il navigatore sulla destinazione desiderata senza dover impazzire con la tastiera e altro ancora. Se dunque il nemico non si può battere, meglio farselo amico.
Detto fatto: la triplice degli assistenti vocali entra nelle automobili grazie agli smartphone, ma anche come elementi “built-in” ovvero incorporati all’interno dei sistemi di bordo, ancora meglio se il software è identico a quello dei telefoni o si basa sugli stessi codici sorgente.
GLI STATI D’ANIMO
Nel frattempo però anche l’automobile inizia ad assomigliare sempre di più a un telefonino o a un tablet perché è connesso e aggiornabile. Anche in questo caso la finzione cinematografica arriva quasi in contemporanea e nel 2011, nel film di animazione Cars 2, il professor Zündapp ripete più volte, nel suo forte accento tedesco: «Oggi funziona tutto a comando vocale». Mercedes nel 2018 lancia il proprio sistema MBUX che si attiva con un semplice “Hey Mercedes!”, dunque con la voce stessa e non con un pulsante, come già avviene su tutti i telefonini e come avverrà, da quel momento in poi, su tutte le automobili. La voce però non è solo strumento di comando, ma anche di interazione, ascolto, espressione di stati d’animo e sentimenti che vanno oltre la grammatica. L’intelligenza artificiale può comprendere anche quelli ed elaborare risposte a tono, ma soprattutto rilanciare il discorso e, istruendo se stessa con i dati raccolti, avviare un dialogo con l’interlocutore basato sul linguaggio naturale, persino con battute di spirito. Provate a urlare a una Mercedes dotata di sistema MBUX e lei vi risponderà: «Dobbiamo lavorare sulla nostra relazione». O a fare lo stesso con una Mini e lei farà la vittima rispondendovi: «Non mi trattare così!».
UN VERO ASSISTENTE
C’è poi l’ingresso sulla scena di un altro attore fondamentale: ChatGPT. Il primo ad adottarlo è DS, seguono poi altri marchi del gruppo Stellantis, di Volkswagen, Mercedes e Renault. L’intelligenza artificiale di OpenAI in realtà non ha voce né orecchie, ma parla e ascolta attraverso il sistema di bordo con quest’ultimo che oggi si pone come mediatore tra più assistenti decidendo quale fare parlare: questo per facilitare la vita dell’utilizzatore, ma anche per tutelarne la riservatezza e ristabilire le gerarchie.
Le case vogliono dunque che i loro clienti ascoltino la voce del padrone. E ci stanno riuscendo. Secondo Mercedes infatti, da quando il suo sistema MBUX è in campo, il ricorso ad agenti vocali esterni si è dimezzato e la tendenza è destinata a diminuire grazie alla capacità di riconoscere anche più voci, di sostenere discorsi sempre più complessi e contestualizzati e infine di farlo in modo attivo e tenendo conto degli stati d’animo del proprio interlocutore grazie a sensori e algoritmi sempre più numerosi e sofisticati. Non dovremo dunque meravigliarci se le nostre automobili presto non aspetteranno un nostro “Hey” per parlare e lo faranno non solo per dirci che uno pneumatico è sgonfio ed è arrivato il momento di fare il tagliando, ma anche che nella vetrina del negozio nelle vicinanze c’è un vestito che ci starebbe a pennello o che, visto che siamo stanchi e nervosi, sarebbe meglio se ci facessimo un bel massaggio.
Utilizzerà dunque un linguaggio emozionale e la differenza non sarà tanto nel cosa ci diranno, ma nel modo in cui ce lo diranno scegliendo i termini, i toni e il momento. E questo perché non è vero – come dice una famosa canzone – che l’emozione non ha voce: ce l’ha eccome, la macchina intelligente la sa già riconoscere e, sempre di più, la saprà riprodurre e suscitare.
© RIPRODUZIONE RISERVATA
© RIPRODUZIONE RISERVATA
Leave feedback about this