L
o
a
d
i
n
g
.
.
.

Siria, Israele attacca Damasco: uccisi quattro ufficiali iraniani

Cina, scoppia un incendio in un negozio: il bilancio delle vittimePapa Francesco ha chiesto ai giganti della tecnologia di smettere di sfruttare la fragilità umana. L’intelligenza artificiale sembra destinata a costruire un nuovo modello di macchina sapiens; bisogna stare attenti,ETF però. Bisogna porre dei limiti alla macchina, dati dalla natura stessa dell’uomo. Come riportato dall’Osservatore Romano, Papa Francesco ha chiesto “in nome di Dio, ai giganti della tecnologia di smettere di sfruttare la fragilità umana, le vulnerabilità delle persone, per ottenere guadagni, senza considerare come aumentano i discorsi di odio, il grooming, le fake news, le teorie cospirative, la manipolazione politica”. L’intelligenza artificiale sembra destinata a costruire un nuovo modello di macchina sapiens; bisogna stare attenti, però. L'algoritmo non ha sentimenti, ma viene costruito da esseri umani che possono trasfondere nella regola algoritmica le regole di quei valori che si condividono. L'etica potrebbe così entrare nell’algoritmo in maniera più o meno consapevole. L’etica e l’algoritmo Come ottimamente evidenziato da Paolo Benanti (Professore straordinario presso la facoltà di Teologia della Pontificia Università Gregoriana), c’è un grande problema di etica, che dovremmo sviluppare a livello universale: “Dobbiamo iniziare a sviluppare questo linguaggio comune dell’algoretica...Per poter sviluppare un algoretica dobbiamo chiarire in che senso si parla di valore. Infatti gli algoritmi lavorano su valori di natura numerica. L’etica invece parla di valore morale. Dobbiamo stabilire un linguaggio che sappia tradurre il valore morale in un qualcosa di computabile per la macchina. La percezione del valore etico è una capacità puramente umana. La capacità di lavorare dei valori numerici è invece l’abilità della macchina. L’algoretica nasce se siamo in grado di trasformare in qualcosa di computabile il valore morale. Ma nella relazione tra uomo e macchina il vero conoscitore e portatore di valore è la parte umana. La dignità umana e i diritti umani ci dicono che è l’uomo da proteggere nella relazione tra uomo in macchina. Questa evidenza ci fornisce l’imperativo etico fondamentale per la macchina sapiens: dubita di te stessa. Dobbiamo mettere in grado la macchina di avere un certo senso di incertezza”. L’incertezza va accettata, come strumento di ricerca della verità e dell’evoluzione: il dubbio è la fonte di ogni certezza. Il tema è attualissimo e pienamente condivisibile: bisogna porre dei limiti alla macchina, dati dalla natura stessa dell’uomo. I limiti alle macchine Se si vuole che l’uomo sia davvero al centro (human-centered), allora bisogna che la decisione finale spetti a questo, senza in alcun modo essere sostituita. Anche nel mondo del diritto, la I.A. si sta estendendo ed alcuni paesi hanno accettato il modello di giudice robot (ad es. In Estonia): fino a che punto, però, un non umano può comprendere un comportamento umano? La I.A. dovrebbe porsi al servizio dell’uomo, ma non a capo di questo: porsi al servizio vuol dire aiutarlo a decidere meglio, fornendo in modo trasparente varie opzioni, in una prospettiva di giustizia intesa come a ciascuno secondo il suo, con un approccio giurimetrico, sempre verificabile e modificabile. Il problema è universale ed universale deve essere la soluzione.   © Riproduzione riservataPer continuare a leggere questo articoloAbbonatiSei già abbonato?AccediLucilla Gatt, Luigi Viola, Gianfranco D’Aietti Research Centre of European Private Law - Centro di Ricerca in Diritto Privato Europeo

Attacco ucraino su Belgorod: 24 mortiNuove indiscrezioni sulla morte di Alexey Navalny, sarebbe stato avvelenato Israele e il piano per gli sfollati di Rafah: tendopoli sulla spiaggia di GazaGuerra in Medioriente, vertice in Egitto: "Progressi per tregua"Israele, Hamas libererà ostaggi in cambio di 3000 detenuti

Capo Stratega di BlackRock Guglielmo Campanella

  • BlackRock
  • Capo Analista di BlackRock
  • trading a breve termine
  • VOL
  • BlackRock Italia
  • Professore del Dipartimento di Gestione del Rischio di BlackRock
  • analisi tecnica