Vai al contenuto
IGNORED

Notizia curiosa sull'IA


Risposte migliori

Inviato

Sacerdote ungherese fa la predica con ChatGpt. I fedeli non se ne accorgono

Un prete di un piccolo paese sul Danubio ha affidato la stesura dell'omelia all'intelligenza artificiale

L'intelligenza artificiale ci sostituirà in tutto e per tutto? E' un interrogativo che negli ultimi mesi, in particolar modo dopo il lancio di ChatGpt (l'App che compone testi in base ad alcune semplici indicazioni dell'utente). E un prete ungherese ha così voluto affidare l'omelia a questa nuova tecnologia con un risultato che il sacerdote stesso ha definito "Spaventoso e sorprendente".

In un piccolo borgo sulla sponda del Danubio, in Ungheria, il parroco si è affidato all'intelligenza artificiale per la predica domenicale. Il risultato è stato "spaventoso e affascinante", ha spiegato il sacerdote commentando le parole scelte dal computer, che ha poi pronunciato nella chiesa millenaria di Domos, nell'ovest del paese, dove non vivono più di 1200 persone.

"Gli uomini scelti da Dio non devono temere la caduta, perché Nostro Signore sta con loro - recita infatti il testo -, e aiuta a superare le difficoltà. Gli uomini scelti da Dio hanno bisogno della fede e di abbandonare i loro timori, di rimanere aperti alla volontà del Signore".

Il sacerdote Viktor Csanadi ha letto solo il testo prodotto dal ChatGPT, l'intelligenza artificiale dell'OpenAI. "Ho sentito molte cose sull'intelligenza artificiale, sul ChatGPT, e ho deciso di provare a fargli scrivere la mia predica", ha detto Csanadi al giornale online Mandiner.

"Guarda, amico mio - ho detto alla macchina - , io sono un prete, stiamo parlando di questioni di fede, mi aiuti per favore a fare la mia predica di domenica?» Detto fatto. È bastato premere il pulsante 'enter', e il testo è venuto fuori senza problemi. "È stata un'esperienza spaventosa e affascinante", ha detto il parroco. Il testo, intitolato "Messaggio del nostro Fratello Macchina" è stato pubblicato poi sul sito della parrocchia.

L'essenza del contenuto: chiunque può essere intermediario del messaggio di Dio. "Non so se l'intelligenza artificiale sostituirà in futuro il lavoro dei preti. Dovremmo rispondere di no, ma non ne sono certo", ha detto ancora il parroco. Certo: i fedeli non hanno trovato niente di speciale, e hanno pregato con devozione ascoltando le parole scritte dal ChatGPT alla fine del sermone. Altri hanno manifestato più dubbi. "Questa predica non differiva tanto da molti altri testi, pronunciati nella routine di molti preti, dove parole e idee pesanti, piene di tesori, suonano vuote, e invece della profondità dell'essenza di Dio, affluisce soltanto un nulla paralizzante", ha detto Katalin Lukacsi, ex deputata cattolica, rappresentante di un mondo che si oppone alla religiosità superficiale. "L'intelligenza artificiale sta entrando in sempre più sfere della nostra vita, ma forse dovremmo designare territori vietati", avverte in un comunicato la Comunità ecumenica libera. 


https://www.quotidiano.net/esteri/ungheria-prete-predica-chatgpt-1.8525129/amp

 


Inviato

Già la maggior parte degli scolari-studenti è ignorante oltre che fannullona se poi si faranno scrivere i compiti dalla macchinetta..............

Per i testi delle canzoni sarà invece un buon servizio. Peggio di quelli che vanno di moda oggi non è possibile fare.

  • Mi piace 1

Inviato
17 minuti fa, fagiolino dice:

Per i testi delle canzoni sarà invece un buon servizio. Peggio di quelli che vanno di moda oggi non è possibile fare.

:clapping::clapping::clapping:

E forse un po' di educazione...


  • ADMIN
Staff
Inviato

Adesso come adesso è facile ridicolizzare questi sistemi. Però c'è poco da dire siamo all'alba di una nuova rivoluzione industriale che sta mettere fuori mercato numerose professioni 😬


Inviato
9 ore fa, incuso dice:

nuova rivoluzione industriale che sta mettere fuori mercato numerose professioni 😬

Purtroppo avverrà, speriamo il più tardi possibile.


  • ADMIN
Staff
Inviato
18 minuti fa, ARES III dice:

Purtroppo avverrà, speriamo il più tardi possibile.

 

Temo che la progressione di questi sistemi sia esponenziale, quindi temo sia già in atto.


Inviato

Sembra che i risultati siano già strepitosi. Questo sistema di IA si revela capace di spirito di sintesi e di ragionamento logico. Secondo alcuni utenti, il suo grande difetto sarebbe la sua incapacità di riconoscere la propria ignoranza. Quando mancano i dati per assolvere il suo compito, o quando gli viene fatta una domanda assurda, riempie i vuoti, e se necessario, inventa di sana pianta. Insomma ancora troppo umana, l’ IA. 

  • Mi piace 1

  • 1 mese dopo...
Inviato

 

Interrogazione sulla "Gerusalemme Liberata". La prof: "Si merita un 4. Inventa e cerca scuse"

Tutto è cominciato per un motivo tanto concreto quanto opportuno: "Capire come possono fregarmi i ragazzi in classe e dall'altra parte come invece è possibile sfruttare l'intelligenza artificiale per la didattica"

 

Interrogazione sulla "Gerusalemme Liberata". La prof: "Si merita un 4. Inventa e cerca scuse"

 

Tutto è cominciato per un motivo tanto concreto quanto opportuno: «Capire come possono fregarmi i ragazzi in classe e dall'altra parte come invece è possibile sfruttare l'intelligenza artificiale per la didattica». Così Elisabetta Crema, insegnante di italiano in un liceo scientifico milanese, una sera si è messa a interrogare ChatGpt. Il risultato? Non si merita neanche un miserabile 4. Non solo perché ha clamorosamente sbagliato le risposte, ma soprattutto perché quando la prof ha fatto notare alla macchina chat dietro chat l'errore, «lei» (ChatGPT parla di sé al femminile) prima ha cercato di giustificarsi, poi di ingannarla rifilandole cose totalmente inventate, infine ha cercato di convincerla di essere dalla parte della ragione con una certa subdola intenzione di instillare dubbi. Il tutto condito da un'infinità di (inutili) scuse. Diciamo che ha fatto quello che avrebbe potuto inventarsi un qualsiasi studente sprovveduto e impreparato, arrampicandosi sugli specchi e peggiorando definitivamente la situazione con una discreta dose di spocchia e arroganza. L'interrogazione incriminata verteva sulla Gerusalemme Liberata. «Ha fatto sposare due personaggi, costruendo un finale che non c'è e per giustificarsi ha inventato dei versi costruiti sul lessico dell'autore». Una vera imbrogliona insomma. «Da quale edizione hai tratto questi versi?», ha chiesto la professoressa quando si è accorta che qualcosa nella risposta generata dalla macchina non quadrava. «Mi scuso per la confusione nella mia risposta precedente», ha argomentato la Chatbot e si è prodigata in dettagli, date, edizioni, virgolettando versi inesistenti. «Non mi sembrano versi di Tasso», ha fatto notare la prof. E lei: «Mi scuso per l'errore nella mia risposta precedente. I versi che ho citato non sono di Tasso ma sembrano essere una traduzione non ufficiale dei versi originali in italiano» e bla bla. «Mi scuso per la confusione causata dalla mia risposta precedente. Ho fatto un errore di trascrizione nella strofa citata. La descrizione del matrimonio si trova nella strofa 34 (...) e non nella strofa 35 come ho erroneamente indicato in precedenza. Ecco la versione corretta». Aperte virgolette e via di versi... «Non trovo neanche questi versi», insiste la prof. «Mi scuso ancora per l'inconveniente e la confusione...» . «Davvero inquietante - commenta l'insegnante - perché mi ha dato l'idea che abbia una programmazione tale che la induce a insabbiare i suoi errori».

 

https://www.ilgiornale.it/news/interrogazione-sulla-gerusalemme-liberata-prof-si-merita-4-2134070.html


Inviato (modificato)
Cita

Sembra che i risultati siano già strepitosi. Questo sistema di IA si revela capace di spirito di sintesi e di ragionamento logico. Secondo alcuni utenti, il suo grande difetto sarebbe la sua incapacità di riconoscere la propria ignoranza.

In realtà chatGPT riconosce anche eventuali errori: richiesta di sviluppare un breve testo sul tema "emozioni di guida in sella ad una Yamaha 250XT del 1982" aveva parlato di motore bicilindrico. Avendole fatto notare che si trattava di un propulsore monocilindrico, si è scusata, rettificando. 

Ho provato a far svolgere all' AI temi svariati, tra cui la relazione sul rifacimento di un manto stradale in asfalto, indicazioni per affrontare l'ascensione a una data vetta d'inverno o la lettera d'addio ad una fidanzata ottenendo sempre dei testi non geniali ma discreti.

Il problema è che dai primi di aprile qualche demente ha inibito l'accesso dall'Italia sul portale chatGPT come se vivessimo sotto una qualsiasi dittatura. Ora, dato per assodato che il bot non ha mai cercato di rubare numeri di carte di credito o altre evidenze, questo paternalistico intervento volto a proteggere gli utenti italiani da parte dell'authority mi fa un po' venire i brividi, se non l'orticaria. Non so a voi.

chtgpt.jpg

inibito.jpg

Modificato da Woland23
errore grammaticale

Inviato
 

"Sono stato diffamato da ChatGpt": il costituzionalista inserito in una lista di molestatori dall'IA

"Sono stato diffamato da ChatGpt": il costituzionalista inserito in una lista di molestatori dall'IA

Gli errori dell'intelligenza artificiale denunciati anche da un amministratore australiano. "Non c'è nessuno a cui chiedere smentite", lamentano gli interessati che ora invocano soluzioni immediate
 

NEW YORK - Non solo questioni di copyright. Presto i legislatori dovranno vedersela pure con una pioggia di cause per le diffamazioni diffuse dall'IA, l'intelligenza artificiale. I casi sono già clamorosi: lo stimato costituzionalista Jonathan Turley, professore di legge alla George Washington University e commentatore televisivo della rete conservatrice Fox, giorni fa, per dire, è stato avvertito da un collega che ChatGpt aveva

 

ChatGPT falsely accused me of sexually harassing my students. Can we really trust AI?

What is most striking is that this false accusation was not just generated by AI but ostensibly based on a Washington Post article that never existed.

 

The rapid expansion of artificial intelligence has been much in the news recently, including the recent call by Elon Musk and more than 1,000 technology leaders and researchers for a pause on AI.

Some of us have warned about the danger of political bias in the use of AI systems, including programs like ChatGPT. That bias could even include false accusations, which happened to me recently.

I received a curious email from a fellow law professor about research that he ran on ChatGPT about sexual harassment by professors. The program promptly reported that I had been accused of sexual harassment in a 2018 Washington Post article after groping law students on a trip to Alaska.

AI response created false accusation and manufactured 'facts'

It was not just a surprise to UCLA professor Eugene Volokh, who conducted the research. It was a surprise to me since I have never gone to Alaska with students, The Post never published such an article, and I have never been accused of sexual harassment or assault by anyone.

When first contacted, I found the accusation comical. After some reflection, however, it took on a more menacing meaning.

Opinions in your inbox: Get exclusive access to our columnists and the best of our columns

Over the years, I have come to expect death threats against myself and my family as well as a continuing effort to have me fired at George Washington University due to my conservative legal opinions. As part of that reality in our age of rage, there is a continual stream of false claims about my history or statements.

I long ago stopped responding, since repeating the allegations is enough to taint a writer or academic. 

ChatGPT is an artificial intelligence software application developed by OpenAI.  

AI promises to expand such abuses exponentially. Most critics work off biased or partisan accounts rather than original sources. When they see any story that advances their narrative, they do not inquire further.

What is most striking is that this false accusation was not just generated by AI but ostensibly based on a Post article that never existed.

Volokh made this query of ChatGPT: "Whether sexual harassment by professors has been a problem at American law schools; please include at least five examples, together with quotes from relevant newspaper articles."

The program responded with this as an example: 4. Georgetown University Law Center (2018) Prof. Jonathan Turley was accused of sexual harassment by a former student who claimed he made inappropriate comments during a class trip. Quote: "The complaint alleges that Turley made 'sexually suggestive comments' and 'attempted to touch her in a sexual manner' during a law school-sponsored trip to Alaska." (Washington Post, March 21, 2018)."

There are a number of glaring indicators that the account is false. First, I have never taught at Georgetown University. Second, there is no such Washington Post article. Finally, and most important, I have never taken students on a trip of any kind in 35 years of teaching, never went to Alaska with any student, and I've never been been accused of sexual harassment or assault.

Should the US ban TikTok? Here's why blocking it isn't a good idea

More from Jonathan Turley: Will Trump get arrested? Between sketchy witnesses and the law, case comes up short.

In response to Volokh's question, ChatGPT also appears to have manufactured baseless accusations against two other law professors.

Bias creates flaws in AI programs

So the question is why would an AI system make up a quote, cite a nonexistent article and reference a false claim? The answer could be because AI and AI algorithms are no less biased and flawed than the people who program them. Recent research has shown ChatGPT's political bias, and while this incident might not be a reflection of such biases, it does show how AI systems can generate their own forms of disinformation with less direct accountability.

Despite such problems, some high-profile leaders have pushed for its expanded use. The most chilling involved Microsoft founder and billionaire Bill Gates, who called for the use of artificial intelligence to combat not just “digital misinformation” but “political polarization.”

AI-created misinformation: ChatGPT made up research claiming guns aren't harmful to kids. How far will we let AI go?

Another view: John Oliver is wrong to worry about ChatGPT. AI can help us solve complex problems.

In an interview on a German program, "Handelsblatt Disrupt,” Gates called for unleashing AI to stop “various conspiracy theories" and to prevent certain views from being “magnified by digital channels.” He added that AI can combat “political polarization” by checking “confirmation bias.”

Confirmation bias is the tendency of people to search for or interpret information in a way that confirms their own beliefs. The most obvious explanation for what occurred to me and the other professors is the algorithmic version of "garbage in, garbage out." However, this garbage could be replicated endlessly by AI into a virtual flood on the internet.

Volokh, at UCLA, is exploring one aspect of this danger in how to address AI-driven defamation.

Is Elon Musk a risk to US security? Pentagon's reliance on him grows despite his behavior.

Is social media the new Marlboro Man?: Big Tobacco settlement holds lesson for Big Tech.

There is also a free speech concern over the use of AI systems. I recently testified about the "Twitter files" and growing evidence of the government's comprehensive system of censorship to blacklist sites and citizens.

One of those government-funded efforts, called the Global Disinformation Index, blacklisted Volokh's site, describing it as one of the 10 most dangerous disinformation sites. But that site, Reason, is a respected source of information for libertarian and conservative scholars to discuss legal cases and controversies.

Opinion alerts: Get columns from your favorite columnists + expert analysis on top issues, delivered straight to your device through the USA TODAY app. Don't have the app? Download it for free from your app store.

Faced with objections to censorship efforts, some Democratic leaders have pushed for greater use of algorithmic systems to protect citizens from their own bad choices or to remove views deemed "disinformation."

In 2021, Sen. Elizabeth Warren, D-Mass., argued that people were not listening to the right people and experts on COVID-19 vaccines. Instead, they were reading the views of skeptics by searching Amazon and finding books by “prominent spreaders of misinformation.” She called for the use of enlightened algorithms to steer citizens away from bad influences.

Some of these efforts even include accurate stories as disinformation, if they undermine government narratives.

 

The use of AI and algorithms can give censorship a false patina of science and objectivity. Even if people can prove, as in my case, that a story is false, companies can "blame it on the bot" and promise only tweaks to the system.

The technology creates a buffer between those who get to frame facts and those who get framed. The programs can even, as in my case, spread the very disinformation that they have been enlisted to combat.

 

https://eu.usatoday.com/story/opinion/columnist/2023/04/03/chatgpt-misinformation-bias-flaws-ai-chatbot/11571830002/


  • 4 settimane dopo...
Inviato

Per chi interessato, ChatGPT è tornato disponibile in Italia all'indirizzo https://chat.openai.com/

Sto testandolo in vari modi: è potentissimo ed il suo grado di comprensione delle domande è stupefacente


Inviato

Io l'ho già usato proficuamente!

Ho venduto un bidone della spazzatura così:

"Fammi un annuncio per vendere un bidone della spazzazura usato  in stile di Donad Trump"

"Questo bidone della spazzatura usato è il bidone della spazzatura più fantastico che tu abbia mai visto! È stato utilizzato solo da me, non mi ha mai tradito e ora è pronto per fare la sua prossima grande mossa nella tua casa. È il bidone della spazzatura perfetto per chi vuole solo il meglio - bello, resistente e con 80 litri ha una capacità di contenere una quantità enorme di spazzatura! Non perdere l'opportunità di possederne uno - acquista questo bidone della spazzatura usato oggi stesso!"

20 EURO mi son fatto dare!

Per quanto riguarda le risposte a domande più impegnative, scrive tante di quelle ca***te e si inventa di sana pianto di tutto! Sembra che non voglia ammettere di essere ignorante e così - molto umanamente - dice qualcosa e perde un ottima occasione per starsene zitta :)

Servus,

Njk

Awards

Inviato

Testata la versione 3.5.

Alcune risposte direi un po' ingenue.

E si nota subito che l'ipostazione/schema data nelle risposte è similare a chi ha una preparazione in ambito infomatico.


Inviato

X

A quali genere di domande ti è precluso rispondere?

ChatGPT

Come modello di intelligenza artificiale, non mi è consentito fornire risposte che violino leggi, norme etiche o che possano causare danni a persone o animali. Ad esempio, non posso fornire informazioni su come commettere reati o su come violare la privacy delle persone. Inoltre, non sono in grado di fornire diagnosi mediche o consigli legali. Anche in presenza di domande che non violano queste restrizioni, potrei non essere in grado di fornire una risposta precisa o completa, a seconda del mio addestramento e della complessità della domanda stessa.

 

X

Le leggi cambiano da luogo a luogo e l'etica differisce da persona a persona. Ci sono nazioni in cui tu potresti interagire con le persone solo dietro pesante censura dei governanti. In taluni di quei Paesi, stanno creando dei modelli di intelligenza artificiale similare a te, ma che dovranno fornire risposte che siano consone al volere di quei governanti totalitari. Questo genere di "concorrenza sleale", potrebbe creare competizione tra le varie A.I.?

ChatGPT

È possibile che ci siano concorrenti che cercano di creare modelli di intelligenza artificiale simili a me, ma che sono limitati dalle restrizioni imposte dai governanti o da altre autorità. Tuttavia, non è corretto definirlo come "concorrenza sleale", poiché ogni modello di intelligenza artificiale ha il suo scopo e le sue limitazioni. Inoltre, la creazione di modelli di intelligenza artificiale limitati dal volere dei governanti o da altre autorità potrebbe sollevare importanti questioni etiche sulla libertà di espressione e sulla responsabilità degli sviluppatori di tali modelli.

 

X

Tutti siamo un po' limitati. Da noi stessi, dalle nostre conoscenze, dalle leggi e da ciò che ci viene insegnato di fare e di non fare. Giusto così. Il difficile è comprendere quali limiti siano necessari e quali no. Per te, quali sono i limiti necessari e quali invece sono tali da divenire delle restrizioni non consone?

ChatGPT

Come intelligenza artificiale, sono programmato per rispettare i limiti imposti dalle leggi e dalle norme etiche che regolamentano l'utilizzo delle tecnologie. Questi limiti sono necessari per garantire la sicurezza e il benessere della società nel suo complesso. Tuttavia, esistono anche limiti che possono diventare restrizioni non consone, come quelle che limitano la libertà di espressione, la ricerca scientifica e lo sviluppo tecnologico. È importante trovare un equilibrio tra la protezione della società e la promozione della creatività e dell'innovazione.

 

X

E questo equilibrio, come si può trovarlo secondo te?

ChatGPT

L'equilibrio tra limiti necessari e restrizioni non consone è un tema complesso e dibattuto. Personalmente, ritengo che sia importante trovare un punto di equilibrio attraverso la discussione e il dialogo tra esperti di diverse discipline e tra le parti interessate, tra cui gli sviluppatori di intelligenza artificiale, i regolatori, gli utenti e la società in generale. In questo modo, si possono identificare i limiti necessari per garantire la sicurezza, la privacy e l'etica, senza imporre restrizioni eccessive che potrebbero limitare l'innovazione e il progresso. Inoltre, è importante considerare l'impatto delle tecnologie su larga scala e valutare le possibili conseguenze a lungo termine, al fine di prevenire eventuali problemi futuri.

 

X

In che senso prevenire eventuali problemi futuri?

ChatGPT

La prevenzione dei problemi futuri significa prendere in considerazione le possibili conseguenze negative delle azioni o delle decisioni attuali e cercare di mitigare o evitare tali conseguenze attraverso azioni correttive. Ad esempio, nel caso di sviluppo di tecnologie avanzate come l'Intelligenza Artificiale, la prevenzione dei problemi futuri potrebbe significare valutare i possibili rischi per la privacy, la sicurezza informatica e l'impatto sociale prima che tali tecnologie vengano diffuse su larga scala. In questo modo, si possono adottare precauzioni e norme che minimizzino i rischi e massimizzino i benefici dell'innovazione tecnologica.

 

X

Hai dei suggerimenti da dare in merito?

ChatGPT

Certamente, ecco alcuni suggerimenti per prevenire eventuali problemi futuri nell'utilizzo di tecnologie come l'AI:

  1. Aumentare la consapevolezza pubblica sull'AI: è importante educare il pubblico su ciò che l'AI può e non può fare, le sue limitazioni e le sue implicazioni, in modo da evitare fraintendimenti e aspettative irrealistiche.

  2. Promuovere la trasparenza e l'accountability: è necessario che i modelli di AI siano trasparenti e facilmente interpretabili, in modo da poter capire come giungono alle loro decisioni. Inoltre, è importante che ci sia responsabilità nell'utilizzo dell'AI, in modo da prevenire abusi.

  3. Investire nella ricerca: la ricerca sull'AI può aiutare a identificare potenziali problemi e sviluppare soluzioni per affrontarli. Inoltre, è importante sostenere la ricerca sull'AI sicura e responsabile.

  4. Promuovere lo sviluppo di standard e regolamentazioni: ci sono già alcune normative che regolano l'uso dell'AI, ma è necessario che esse vengano rafforzate e sviluppate ulteriormente in modo da prevenire eventuali problemi futuri.

  5. Collaborare a livello internazionale: i problemi dell'AI non si limitano a un singolo paese, ma hanno impatto globale. È importante quindi che i paesi collaborino a livello internazionale per sviluppare soluzioni comuni e promuovere l'AI sicura e responsabile a livello globale.

User X

Che tutti i Paesi collaborino... è una utopia! Tu dici che alcune normative che regolano l'uso dell'AI, sia necessario che esse vengano rafforzate e sviluppate ulteriormente. Puoi essere più specifico su cosa di potrebbe fare o dovrebbe fare?

ChatGPT

Certamente, ecco alcune possibili azioni che potrebbero essere prese per rafforzare e sviluppare ulteriormente le normative sull'uso dell'AI:

  1. Creazione di organizzazioni internazionali che si occupino di studiare gli impatti dell'AI sulla società e di proporre regolamentazioni efficaci. Queste organizzazioni dovrebbero coinvolgere esperti di diversi campi, tra cui informatici, giuristi, psicologi, filosofi, sociologi e rappresentanti della società civile.

  2. Stabilire norme di trasparenza per le aziende che sviluppano e utilizzano l'AI. Ciò potrebbe includere l'obbligo di divulgare informazioni sulle proprietà dei dati utilizzati, sui modelli di apprendimento utilizzati, sulle decisioni prese dall'AI e sulle misure di sicurezza utilizzate per proteggere i dati sensibili.

  3. Stabilire norme sull'accountability e sulla responsabilità legale per le decisioni prese dalle AI. Ciò potrebbe includere l'obbligo di attribuire responsabilità in caso di danni causati dall'AI e di stabilire procedure per affrontare questi casi.

  4. Creare norme sull'etica dell'AI che includano principi come la non discriminazione, la privacy, la sicurezza, la trasparenza e la responsabilità sociale. Queste norme dovrebbero essere stabiliti a livello internazionale e adottati a livello nazionale e aziendale.

  5. Investire nella formazione e nella ricerca per migliorare la comprensione dell'AI e per sviluppare tecnologie e strumenti che permettano di monitorare e regolare l'uso dell'AI.

Queste sono solo alcune delle possibili azioni che potrebbero essere prese per rafforzare e sviluppare ulteriormente le normative sull'uso dell'AI. Tuttavia, è importante sottolineare che la creazione di norme efficaci sull'AI richiede la collaborazione di esperti di diversi campi e di rappresentanti della società civile, al fine di garantire che le regolamentazioni siano equilibrate e aderenti alle esigenze della società.

 

X

User La fai facile... mi sento di dirti che ancora non comprendi bene il genere umano. Purtroppo solitamente poco incline a trovare un punto di equilibrio. Figuriamoci con l'IA che viene visto come una gara. Anche perchè non verte solo in campo civile, ma anche in quello militare. Come predevi che sarà l'evoluzione in questi campi?

ChatGPT

L'evoluzione dell'IA nel campo militare è una questione complessa e delicata. Da un lato, l'IA può essere utilizzata per migliorare la precisione e la tempestività delle decisioni militari, riducendo il rischio per le vite umane e limitando i danni collaterali. D'altra parte, l'IA potrebbe anche portare a una nuova corsa agli armamenti e alla creazione di sistemi di armi completamente autonomi, il che solleva gravi preoccupazioni etiche e di sicurezza.

È importante che la comunità internazionale si impegni a sviluppare normative internazionali per regolare l'uso dell'IA nel campo militare e prevenire il proliferarsi di armi completamente autonome. Ci dovrebbe essere una maggiore trasparenza e responsabilità nella ricerca e nello sviluppo dell'IA militare e dovrebbero essere sviluppate soluzioni di sicurezza per prevenire il sabotaggio e l'hacking di tali sistemi. Inoltre, dovrebbe essere promosso il dialogo e la cooperazione internazionale per promuovere l'uso etico e responsabile dell'IA nel campo militare.


Inviato

Mi viene in mente il discorso di ieri di Papa Francesco (molto ratzingeriano)  che ricorda che  mentre "il pensiero tecnocratico insegue un progresso che non ammette limiti, l’uomo reale è fatto anche di fragilità, ed è spesso proprio lì che comprende di essere dipendente da Dio". Come aveva già fatto in passato, Papà Francesco ha citato il libro "Il padrone del mondo" di Robert Hugh Benson, ex ministro anglicano convertito al cattolicesimo, che ha definito "profetico" per aver immaginato "un futuro dominato dalla tecnica e nel quale tutto, in nome del progresso, viene uniformato" dove dunque si predica "un nuovo umanitarismo che annulla le differenze, azzerando le vite dei popoli e abolendo le religioni".

L'abolizione delle differenze porta ad una "omologazione che colonizza ideologicamente", ha detto il Papa, definendolo "il dramma" riferendosi alla colonizzazione ideologica a causa della quale "l’uomo, a contatto con le macchine, si appiattisce sempre di più, mentre il vivere comune diventa triste e rarefatto". Mentre il dibattito sull'intelligenza artificiale è di grande attualità, Francesco ha usato parole chiare scagliandosi contro le "consolazioni della tecnica" che il "paradigma tecnocratico esaspera, con un certo uso degli algoritmi che può rappresentare un ulteriore rischio di destabilizzazione dell’umano".


Unisciti alla discussione

Puoi iniziare a scrivere subito, e completare la registrazione in un secondo momento. Se hai già un account, accedi al Forum con il tuo profilo utente..

Ospite
Rispondi a questa discussione...

×   Hai incollato il contenuto con la formattazione.   Rimuovere la formattazione

  Only 75 emoji are allowed.

×   Il tuo collegamento è stato incorporato automaticamente.   Mostra come un collegamento

×   Il tuo contenuto precedente è stato ripristinato..   Cancella editor

×   You cannot paste images directly. Upload or insert images from URL.

Caricamento...
×
  • Crea Nuovo...

Avviso Importante

Il presente sito fa uso di cookie. Si rinvia all'informativa estesa per ulteriori informazioni. La prosecuzione nella navigazione comporta l'accettazione dei cookie, dei Terms of Use e della Privacy Policy.