Un controller per rendere la PlayStation più accessibile - Tiscali NotizieSe il cliente riceve una indicazione errata,criptovalute esistono varie ipotesi civilistiche: fermo restando la tutela rafforzata del consumatore quale contraente debole, ma si possono ipotizzare una responsabilità per fatto degli ausiliari e l’ipotesi di un concorso colposo del creditoreOgni giorno si parla di Intelligenza Artificiale, alcune volte in termini entusiastici, altre in termini critici e preoccupati.La verità è che la IA esiste ed è uno strumento: non è ex se nè buono e neanche cattivo, ma dipende da come viene usato.L’Unione Europea ne ha subito compreso potenzialità e rischi, tanto da dotarsi, prima al mondo, di una normativa generale: si tratta dell’AI Act, approvato dal Parlamento europeo il 13.3.2024.E’ un regolamento che entrerà in vigore in più tranches: si applicherà alle istituzioni, agli organi e agli organismi dell'Unione quando agiscono in qualità di fornitori o deployer di un sistema di IA.Eppure, già ora, prima della sua entrata in vigore, emergono problemi che non saranno risolti direttamente dall’entrata in vigore dell’AI Act.E’ di questi giorni la notizia che la compagnia aerea Air Canada, usando una chatbot dotata di IA, informava il cliente di una particolare promozione, relativa alla possibilità di ottenere un rimborso per i voli prenotati last minute in ragione di un lutto familiare; il cliente faceva incolpevole affidamento su detta informazione, ancorchè il regolamento di Air Canada dicesse altro.In pratica, la IA aveva un’allucinazione (come si suole chiamare), così dando un’informazione al cliente totalmente falsa.La questione finiva davanti al Tribunale, che decideva nel senso di assicurare tutela al cliente, attribuendo vincolatività all’informativa data dalla IA tramite chatbot, in luogo di quanto scritto nel regolamento: prevale il dictum della IA generato al momento, rispetto allo scritto del regolamento. Di conseguenza, il Tribunale condannava Air Canada ad effettuare il rimborso (come se fosse stata vera l’informativa data dalla IA), oltre a ulteriori danni per coprire gli interessi e le spese del giudizio.La problematica è destinata a diffondersi in misura esponenziale, visto che sempre più società offrono il servizio informativo di chatbot con IA.Quale responsabilitàTrasportando la questione in Italia, e fermo restando la tutela rafforzata del consumatore quale c.d. contraente debole, è predicabile una responsabilità per fatto degli ausiliari ex art. 1228 c.c., per il comportamento tenuto della fase precontrattuale ex art. 1337 c.c.?Qui è necessario un distinguo:-se per “responsabilità per fatto degli ausiliari” vogliamo intendere un fatto posto in essere dalla IA, allora la risposta dovrebbe essere negativa; ciò in ragione del fatto che la IA non è “opera di terzi” in senso umano, ma meramente ‘artificiale’;-se per “responsabilità per fatto degli ausiliari” vogliamo intendere un fatto posto in essere da programmatori oppure addestratori, allora la risposta dovrebbe essere positiva; ciò in ragione del fatto che questi hanno natura umana, così potendosi qualificare come terzi, intesi come centro d’imputazione di responsabilità.Pertanto, ben potrà la compagnia aerea essere chiamata a risarcire un eventuale danno al cliente, ma poi potrà rivalersi verso gli ausiliari nel senso sopra detto.Tuttavia andrebbe valutata anche l’ipotesi di un concorso colposo del creditore, ex art. 1227 c.c., relativo al c.d. errore da prompt; il prompt è quel testo in linguaggio naturale che richiede all'IA generativa di eseguire un'attività specifica, che di frequente non viene scritto correttamente, o comunque in modo tale che la IA possa dare una risposta adeguata; ne segue che l’errore di prompt si ha quando non è la IA a sbagliare, ma è la domanda a non essere correttamente impostata e/o scritta: questo andrà decisamente considerato.Ad ogni modo, visto che il tema è la IA, sarebbe utile chiederne un’opinione in modo diretto.Abbiamo posto la seguente domanda a GiuriMatrix: La compagnia aerea Air Canada, usando una chatbot dotata di IA, informava il cliente di una particolare promozione, relativa alla possibilità di ottenere un rimborso per i voli prenotati last minute in ragione di un lutto familiare; il cliente faceva incolpevole affidamento su detta informazione, ancorchè il regolamento di Air Canada dicesse altro. Individua la tutela giuridica.Ecco la risposta: Ai sensi dell'articolo 1337 del Codice civile, l'affidamento incolpevole del cliente sulla promozione comunicata dalla compagnia aerea Air Canada potrebbe costituire un errore essenziale che potrebbe dar luogo a una tutela giuridica. Tuttavia, è necessario valutare attentamente le circostanze specifiche del caso e consultare un avvocato specializzato in diritto dei consumatori per una valutazione accurata dei diritti e delle possibilità di tutela del cliente.Stessa domanda viene posta a Google Gemini.Ecco la risposta: Le informazioni fornite dal chatbot, seppur errate, possono essere considerate come un'offerta al pubblico. In base all'articolo 1337 del Codice Civile italiano, l'offerta al pubblico è vincolante per il proponente e il cliente ha il diritto di accettarla. In questo caso, il cliente ha fatto affidamento in modo legittimo sulle informazioni fornite dal chatbot, che rappresentava Air Canada, e ha quindi accettato l'offerta di rimborso.E’ di certo una frontiera da esplorare, ma non è il futuro: questo è il presente ormai.© Riproduzione riservataPer continuare a leggere questo articoloAbbonatiSei già abbonato?AccediLuigi ViolaAvvocato e direttore scientifico Master Giurimetria
In viaggio verso la Luna la prima missione spaziale privata della storia - Tiscali NotizieVerba volant, Lucio manent. L’audace lingua del cittì Spalletti Le intercettazioni a Palamara proseguite anche dopo lo stop del giudiceDomandare è lecito: alcuni questi per il dottor DavigoScontro verbale tra Gianfranco Fini ed Emanuele Pozzolo per il pistola-gate