Un nuovo chatbot di Intelligenza Artificiale: una nuova risorsa o un possibile danno?

La società italiana Multiversity da alcune settimane ha lanciato un chatbot di Intelligenza Artificiale, che fornisce agli utenti risposte con un coefficiente di accuratezza al 99%.

Questo servizio è totalmente gratuito, infatti in così poco tempo ha generato già più di 100000 risposte, inoltre lo stile e il contenuto della risposta si adatta alle capacità e competenze di chi fa la domanda, garantendo un’efficienza mai vista prima.

Altri tipi di I.A. spesso forniscono dati superflui e sbagliati, invece, come sostenuto dai dirigenti di Multiversity, questa Intelligenza Artificiale è a misura di studente, adatto alla vita scolastica ed universitaria, una funzione che ha lo scopo di “facilitare” i compiti, ma ovviamente non tutti hanno accolto questa I.A. con lo stesso entusiasmo degli ideatori.

L’istruzione nel nostro Paese, ma anche in gran parte del mondo, sta riscontrando diverse problematiche riguardanti gli studenti, il loro grado di apprendimento e di concentrazione, la scarsa resa nei test e il poco studio che si svolge a casa e uno strumento che alleggerisce così tanto l’impegno e le responsabilità potrebbe risultare dannoso, a maggior ragione dal momento in cui anche gli universitari ne dispongono. Molti critici, pensatori e docenti stessi hanno evidenziato che è anti-educativo e a lungo andare un intenso e ripetuto utilizzo di questa I.A. potrebbe generare ignoranza tra chi ne usufruisce, aumentando così le problematiche della futura classe dirigente del mondo.

Nonostante le critiche, il ceo di Multiversity, Fabio Vaccarono, ha annunciato che entro fine anno il chatbot non sarà solo un programma che risponde alle domande, anzi si evolverà anche in uno strumento di educazione digitale, spiegando e valutando qualsiasi argomento, dal programma elementare a quello universitario, in forma sempre gratuita e passando così da “ strumento di ignoranza ad uno di istruzione e cultura”.

Rocco Angri

Se la fede diventa fonte di scontro, un’intelligenza artificiale potrà prevederlo

Sembra l’incipit di un libro di fantascienza, stile Matrix, invece è esattamente ciò per cui è stato progettato il Modeling Religion in Norway (Modrn).

Lo studio, condotto da un team di programmatori, sociologi e teologi della University of Agder, in Norvegia, applica l’intelligenza artificiale alla realtà permettendo di testare scelte politiche prima di attuarle.

I ricercatori hanno riprodotto un modello verosimile di società  in cui gli individui, chiamati agenti, interagiscono e reagiscono ai cambiamenti.

Modificando alcune variabili, come il livello di educazione, benessere e soprattutto religiosità degli agenti, gli studiosi verificano come i cambiamenti introdotti incidono sulle dinamiche sociali.

L’obiettivo scientifico dichiarato da Le Ron Shults, leader del gruppo dei ricercatori, è quello di capire i meccanismi del conflitto, assieme ad un altro: offrire ai politici uno strumento per capire meglio la religione ed il suo impatto sulla società.

Già nel 2015, a Boston, era stato sviluppato un modello di intelligenza artificiale molto simile a quello norvegese, con lo scopo di studiare il motivo per cui le religioni vengano considerate attrattori così potenti. Tra i risultati della ricerca, indicativo quello per cui lo scontro tra gruppi avviene con più facilità se il rapporto tra maggioranza e minoranza è inferiore a 70/30.

Rispetto al progetto di Boston, è stata cambiato l’approccio allo studio della religione; il gruppo norvegese, infatti, oggi sta lavorando  ad una piattaforma che possa essere utilizzata da chiunque.

I più scettici sono preoccupati per la pericolosità di uno strumento del genere, qualora dovesse rispondere alla morale di chi lo adotta, in fondo il modello fornisce una previsione utile a scegliere la strategia più funzionale da utilizzare, perché l’intelligenza artificiale non possiede alcuna sensibilità, ma chi la usa si.

Rossella Marchese

seers cmp badge