IA e l’uso responsabile. Le dieci regole da seguire

Gilda Venezia

dal blog di Gianfranco Scialpi, 7.3.2025.

IA e l’uso responsabile. Necessario un approccio attivo. Diversamente si rischia di acuire “la morte dell’uomo”.

Gilda Venezia

IA e l’uso ressponsabile. Il decalogo esprime il “si”umano e regolato

IA e l’uso responsabile. L’avvento del nuovo prodotto del transumanesimo (progetto tecnico-scientifico), che rimanda al contesto filosofico del postumanesimo, sta iniziando a porre una serie di quesiti. Al di  del domandarsi, si ha la sensazione che L’IA sia percepita come un’ innovazione inarrestabile. La ricerca e le inevitabili applicazioni sono accolte passivamente, come se la realtà che si sta configurando davanti a noi fosse l’espressione di una volontà esterna all’uomo. Già il “secondo” M. Heidegger aveva anticipato la possibilità che la tecnica si automatizzasse, divenendo un alter ego dell’umano. Purtroppo la profezia del filosofo tedesco è sempre più concreta e a a parere di molti il processo si sta concludendo con l?IA.

Occorre ribadire che il valore etico di quest’ultima dipenderà solo dalle nostre scelte, dalla nostra capacità di non arretrare di fronte ai suoi aggiornamenti. In altri termini, a noi  spetta l’ultima parola, selezionando  il prodotto finale da seguire, perfezionando quello che può realmente facilitarci l’esistenza o risolvere più rapidamente alcune situazioni. La maggiore coscientizzazione o peggio l’avvio dell’autocoscienza nell’IA dipenderanno solo da noi, dall’adesione o meno al nostro bisogno di sentirci dio (Prometeo fu punito da Zeus per averlo tentato).

La medietà aristotelica (la virtù sta nel mezzo, accettazione della nostri limiti)) passa attraverso anche delle regole che esprimono la volontà dell’uomo di governare il processo.

A tal proposito interessante il decalogo elaborato dal British Council, l’ente britannico per le relazioni culturali e le opportunità educative. Si parla di uso responsabile, etimologicamente deriva da respondere (rispondere). “Non possiamo affidare decisioni cruciali, come quelle educative, esclusivamente a una macchina, vi sono regolamentazioni e questioni legali da considerare. Inoltre, non possiamo separare la morale e l’etica dal campo dell’educazione. La tecnologia deve essere un supporto, ma gli esperti devono sempre supervisionarne l’uso per prevenire e correggere eventuali deviazioni”

Ecco alcune indicazioni, lasciando il resto alla curiosità del lettore: “2) Mantenere un obiettivo chiaro – È fondamentale evitare l’uso della tecnologia senza una chiara strategia. L’integrazione dell’IA nelle pratiche didattiche e valutative può essere molto vantaggiosa, ma solo se basata sulla ricerca e su obiettivi di apprendimento ben definiti…6) Il ruolo essenziale degli educatori – Le capacità avanzate dell’IA generativa, in particolare i modelli linguistici di grandi dimensioni come ChatGPT, non possono sostituire il patrimonio di conoscenze ed esperienze costruito da educatori ed esperti linguistici nel corso dei secoli. Un approccio bilanciato che combini il meglio dell’IA con l’esperienza umana garantirà soluzioni moderne ed efficaci per tutti gli attori coinvolti nell’educazione”.

 

.

.

.

.

.

.

 

IA e l’uso responsabile. Le dieci regole da seguire ultima modifica: 2025-03-08T03:32:12+01:00 da
WP2Social Auto Publish Powered By : XYZScripts.com

GILDA VENEZIA - Associazione Professionale GILDA degli INSEGNANTI - Federazione Gilda Unams

webmaster: Fabio Barina



Sito realizzato da Venetian Navigator 2 srl