Sei settimane prima del primo incidente mortale negli Stati Uniti che ha coinvolto l'Autopilot di Tesla nel 2016, il presidente della casa automobilistica Jon McNeill l'ha provato su una Model X e ha inviato un feedback via e-mail al capo della guida automatizzata Sterling Anderson, citando Elon Musk.

Il sistema ha funzionato perfettamente, ha scritto McNeill, con la fluidità di un conducente umano.

"Mi sono sentito così a mio agio con Autopilot, che ho finito per saltare le uscite perché ero immerso nelle e-mail o nelle chiamate (lo so, lo so, non è un uso consigliato)", ha scritto nell'e-mail datata 25 marzo dello stesso anno.

Ora l'e-mail di McNeill, che non è stata riportata in precedenza, viene utilizzata in una nuova linea di attacco legale contro Tesla in merito all'Autopilot.

Gli avvocati dei querelanti in una causa per omicidio colposo in California hanno citato il messaggio in una deposizione, mentre chiedevano a un testimone di Tesla se l'azienda sapeva che i conducenti non avrebbero guardato la strada quando usavano il suo sistema di assistenza alla guida, secondo le trascrizioni non riportate in precedenza, esaminate da Reuters.

Il sistema Autopilot è in grado di sterzare, accelerare e frenare da solo su strada aperta, ma non può sostituire completamente un conducente umano, soprattutto nella guida in città. I materiali di Tesla che spiegano il sistema avvertono che non rende l'auto autonoma e richiede un "guidatore completamente attento" che può "subentrare in qualsiasi momento".

Il caso, il cui processo è fissato a San Jose la settimana del 18 marzo, riguarda un incidente mortale avvenuto nel marzo 2018 e segue due precedenti processi in California su Autopilot che Tesla ha vinto sostenendo che i conducenti coinvolti non avevano ascoltato le sue istruzioni di mantenere l'attenzione durante l'uso del sistema.

Questa volta, gli avvocati nella causa di San Jose hanno testimoniato che, prima dell'incidente, la casa automobilistica non aveva mai studiato la rapidità e l'efficacia con cui i conducenti potevano prendere il controllo se Autopilot sterzava accidentalmente verso un ostacolo, come risulta dalle trascrizioni delle deposizioni.

Un testimone ha dichiarato che Tesla ha aspettato fino al 2021 per aggiungere un sistema di monitoraggio dell'attenzione dei conducenti con telecamere, circa tre anni dopo averci pensato per la prima volta. La tecnologia è progettata per tracciare i movimenti del conducente e avvisarlo se non riesce a concentrarsi sulla strada da percorrere.

Il caso riguarda un incidente autostradale vicino a San Francisco che ha ucciso l'ingegnere Apple Walter Huang. Tesla sostiene che Huang ha utilizzato in modo improprio il sistema perché stava giocando a un videogioco poco prima dell'incidente.

Gli avvocati della famiglia di Huang stanno sollevando domande sul fatto che Tesla avesse compreso che i conducenti - come McNeill, il suo stesso presidente - probabilmente non avrebbero usato o non avrebbero potuto usare il sistema come previsto, e quali misure la casa automobilistica abbia preso per proteggerli.

Gli esperti di diritto dei veicoli autonomi affermano che il caso potrebbe rappresentare la prova più dura fino ad oggi dell'insistenza di Tesla sul fatto che Autopilot è sicuro - se i conducenti fanno la loro parte.

Matthew Wansley, professore associato della scuola di legge Cardozo con esperienza nel settore dei veicoli automatizzati, ha detto che la conoscenza da parte di Tesla del probabile comportamento dei conducenti potrebbe rivelarsi legalmente fondamentale.

"Se per Tesla era ragionevolmente prevedibile che qualcuno avrebbe fatto un uso improprio del sistema, Tesla aveva l'obbligo di progettare il sistema in modo da evitare un uso improprio prevedibile", ha detto.

Richard Cupp, professore della scuola di legge Pepperdine, ha detto che Tesla potrebbe essere in grado di minare la strategia dei querelanti sostenendo che Huang ha abusato dell'Autopilot intenzionalmente.

Ma in caso di successo, gli avvocati dei querelanti potrebbero fornire un modello per altri che fanno causa per l'Autopilot. Tesla sta affrontando almeno una dozzina di cause di questo tipo, otto delle quali riguardano incidenti mortali, che mettono la casa automobilistica a rischio di sentenze pecuniarie di grande entità.

Musk, Tesla e i suoi avvocati non hanno risposto alle domande dettagliate di Reuters per questa storia.

McNeill ha rifiutato di commentare. Anderson non ha risposto alle richieste. Entrambi hanno lasciato Tesla. McNeill è membro del consiglio di amministrazione di General Motors e della sua filiale di guida autonoma, Cruise. Anderson ha co-fondato Aurora, un'azienda di tecnologia di guida autonoma.

Reuters non ha potuto stabilire se Anderson o Musk abbiano letto l'e-mail di McNeill.

QUASI 1.000 INCIDENTI

L'incidente che ha ucciso Huang è tra le centinaia di incidenti negli Stati Uniti in cui Autopilot è stato un fattore sospetto nelle segnalazioni alle autorità di sicurezza automobilistica.

La National Highway Traffic Safety Administration (NHTSA) degli Stati Uniti ha esaminato almeno 956 incidenti in cui è stato inizialmente segnalato l'uso di Autopilot. L'agenzia ha avviato separatamente più di 40 indagini sugli incidenti che hanno coinvolto i sistemi di guida automatizzata Tesla e che hanno provocato 23 morti.

In mezzo all'esame dell'NHTSA, Tesla ha richiamato più di 2 milioni di veicoli con Autopilot a dicembre per aggiungere ulteriori avvisi al conducente. La correzione è stata implementata attraverso un aggiornamento software remoto.

La famiglia di Huang sostiene che Autopilot ha guidato la sua Model X del 2017 contro una barriera autostradale.

Tesla incolpa Huang, dicendo che non è riuscito a rimanere vigile e a prendere il controllo della guida. "Non c'è dubbio che, se avesse prestato attenzione alla strada, avrebbe avuto l'opportunità di evitare questo incidente", ha dichiarato Tesla in un documento del tribunale.

Il giudice della Corte Superiore di Santa Clara non ha ancora deciso quali prove ascolteranno i giurati.

Tesla deve anche affrontare un'indagine penale federale, riportata per la prima volta da Reuters nel 2022, sulle affermazioni dell'azienda secondo cui le sue auto possono guidarsi da sole. In ottobre ha rivelato di aver ricevuto dei mandati di comparizione relativi ai sistemi di assistenza alla guida.

Nonostante le funzioni di marketing chiamate Autopilot e Full Self-Driving, Tesla non ha ancora raggiunto l'ambizione spesso dichiarata da Musk di produrre veicoli autonomi che non richiedano l'intervento umano.

Tesla afferma che Autopilot è in grado di adeguare la velocità al traffico circostante e di navigare all'interno di una corsia autostradale. L'Autopilot "potenziato", che costa 6.000 dollari, aggiunge le funzioni di cambio di corsia automatizzato, di navigazione sulle rampe autostradali e di autoparcheggio. L'opzione Full Self-Driving da 12.000 dollari aggiunge funzioni automatizzate per le strade cittadine, come il riconoscimento dei semafori.

PRONTO A PRENDERE IL CONTROLLO

Alla luce dell'e-mail di McNeill, gli avvocati dei querelanti nella causa Huang stanno mettendo in discussione l'affermazione di Tesla secondo cui i conducenti possono passare in una frazione di secondo alla guida se Autopilot commette un errore.

L'e-mail mostra come i conducenti possano diventare compiacenti durante l'uso del sistema e ignorare la strada, ha detto Bryant Walker Smith, professore dell'Università della Carolina del Sud esperto in diritto dei veicoli autonomi. Il messaggio dell'ex presidente di Tesla, ha detto, "conferma che Tesla riconosce che il comportamento di guida irresponsabile e la guida disattenta sono ancora più allettanti nei suoi veicoli".

L'avvocato della famiglia Huang, Andrew McDevitt, ha letto alcune parti dell'e-mail ad alta voce durante una deposizione, secondo una trascrizione. Reuters non è riuscita a ottenere il testo completo della nota di McNeill.

Gli avvocati del querelante hanno anche citato i commenti pubblici di Musk, mentre si chiedeva cosa Tesla sapesse del comportamento dei conducenti. Dopo un incidente mortale del 2016, Musk ha dichiarato in una conferenza stampa che i conducenti fanno più fatica a prestare attenzione dopo aver usato il sistema in modo estensivo.

"Gli incidenti con Autopilot sono molto più probabili per gli utenti esperti", ha detto. "Non sono i neofiti".

Un'analisi di sicurezza di Tesla del 2017, un documento dell'azienda che è stato presentato come prova in una causa precedente, ha chiarito che il sistema si basa su reazioni rapide del conducente. L'Autopilot potrebbe fare un "input di sterzata inaspettato" ad alta velocità, causando potenzialmente un movimento pericoloso dell'auto, secondo il documento, che è stato citato dai querelanti in uno dei processi vinti da Tesla. Un errore di questo tipo richiede che il conducente "sia pronto a riprendere il controllo e sia in grado di azionare rapidamente il freno".

Nelle deposizioni, un dipendente di Tesla e un testimone esperto assunto dall'azienda non sono stati in grado di identificare alcuna ricerca condotta dalla casa automobilistica prima dell'incidente del 2018 sulla capacità dei conducenti di prendere il controllo quando l'Autopilot fallisce.

"Non sono a conoscenza di alcuna ricerca specifica", ha detto il dipendente, che è stato designato da Tesla come la persona più qualificata per testimoniare su Autopilot.

La casa automobilistica ha eliminato il nome del dipendente dalle deposizioni, sostenendo che si trattava di informazioni legalmente protette.

McDevitt ha chiesto al testimone esperto di Tesla, Christopher Monk, se poteva nominare qualche specialista dell'interazione umana con i sistemi automatizzati che Tesla ha consultato durante la progettazione di Autopilot.

"Non posso", ha detto Monk, che studia la distrazione del conducente e in precedenza ha lavorato per l'NHTSA, come risulta dalle deposizioni.

Monk non ha risposto alle richieste di commento. Reuters non è stata in grado di determinare in modo indipendente se Tesla, da marzo 2018, abbia fatto ricerche sulla velocità con cui i conducenti possono riprendere il controllo, o se abbia studiato l'efficacia dei sistemi di monitoraggio con telecamera che ha attivato nel 2021.

CULLATI NELLA DISTRAZIONE

Il National Transportation Safety Board (NTSB), che ha indagato su cinque incidenti legati ad Autopilot, dal 2017 ha ripetutamente raccomandato a Tesla di migliorare i sistemi di monitoraggio del conducente nei suoi veicoli, senza specificare esattamente come.

L'agenzia, che conduce indagini e ricerche sulla sicurezza ma non può ordinare richiami, ha concluso nel suo rapporto sull'incidente di Huang: "A contribuire all'incidente è stato l'inefficace monitoraggio del coinvolgimento del conducente da parte del veicolo Tesla, che ha facilitato la compiacenza e la disattenzione del conducente".

Nei suoi commenti del 2016, Musk ha detto che i conducenti ignorano fino a 10 avvertimenti all'ora di tenere le mani sul volante.

Il dipendente di Tesla ha testimoniato che l'azienda aveva preso in considerazione l'uso di telecamere per monitorare l'attenzione dei conducenti prima dell'incidente di Huang, ma non ha introdotto tale sistema fino al maggio 2021.

Musk, nei commenti pubblici, ha a lungo resistito alle richieste di sistemi di monitoraggio del conducente più avanzati, sostenendo che le sue auto sarebbero presto completamente autonome e più sicure dei veicoli a guida umana.

"Il sistema sta migliorando così tanto, così velocemente, che questo sarà un punto irrilevante molto presto", ha detto nel 2019 in un podcast con il ricercatore di intelligenza artificiale Lex Fridman. "Sarei scioccato se non fosse entro l'anno prossimo, al più tardi... che l'intervento umano diminuirà la sicurezza".

Tesla ammette ora che le sue auto hanno bisogno di migliori protezioni. Quando ha richiamato i veicoli con Autopilot a dicembre, ha spiegato che i suoi sistemi di monitoraggio del conducente potrebbero non essere sufficienti e che gli avvisi aggiunti durante il richiamo avrebbero aiutato i conducenti "ad aderire alla loro continua responsabilità di guida".

Il richiamo, tuttavia, non ha risolto completamente il problema, ha detto Kelly Funkhouser, direttore associato della tecnologia dei veicoli presso Consumer Reports, una delle principali società statunitensi di test sui prodotti. I suoi test su strada di due veicoli Tesla dopo la correzione della casa automobilistica hanno rilevato che il sistema non è riuscito in una miriade di modi a risolvere i problemi di sicurezza che hanno scatenato il richiamo.

"L'Autopilot di solito fa un buon lavoro", ha detto Funkhouser. "Raramente fallisce, ma fallisce".