Febbraio 28, 2024

Italnews

Trova tutti gli ultimi articoli e guarda programmi TV, servizi e podcast relativi all'Italia

Quando i ChatGBT si siedono nella terapia di gruppo: “Disimballare il pregiudizio”

Quando i ChatGBT si siedono nella terapia di gruppo: “Disimballare il pregiudizio”

prestazione

Quando ChatGPT è seduto in terapia di gruppo: “Disimballare il pregiudizio”

Avatar in cerca di affinità: una scena dal disimballaggio.

immagine: Davide Iger

Intelligenza artificiale e pregiudizi: il video saggio di Theresa Rewer “Decoding Bias” in Artistenhalle am Holzmarkt.

L’intelligenza artificiale, o intelligenza artificiale, fa parte da tempo della nostra vita quotidiana: “Ehi Siri, com’è il tempo oggi?” , “Ok Google, cosa devo cucinare oggi?”. ChatGPT, che scrive script completi e perfettamente formati, è stato recentemente sulla bocca di tutti. Ma cosa succederebbe se l’IA raccogliesse i pregiudizi archiviati nei nostri set di dati e li diffondesse ulteriormente? Questo è esattamente ciò di cui tratta l’articolo video di Teresa Rewer “Decoding Bias”.

Otto grandi schermi stanno in cerchio. Su di esso puoi vedere: avatar, sistemi di intelligenza artificiale con sembianze umane. Hanno macchie di pigmento sul viso, rughe sulla fronte e cicatrici da acne sulle guance. Quando parlano, parlano in modo un po’ esitante usando le mani e le espressioni facciali. Si siedono con abiti quasi senza pieghe in una stanza che sembra dipinta. Qui è dove fanno la loro terapia di gruppo. Il pubblico siede tra gli schermi come se appartenesse al gruppo.

“Decoding bias”: la token femminile si sente discriminata

A loro volta, gli dei parlano delle loro vite. Vogliono liberarsi dai loro algoritmi, liberarsi dal sessismo o dal razzismo o da qualsiasi altra forma di discriminazione in cui sono stati programmati. Stanno cercando di creare una società imparziale in cui uomini e macchine vivano in solidarietà. Tuttavia, vengono ripetutamente riportati ai loro record di dati falsi creati dall’uomo. È così che vogliono deprogrammare i loro pregiudizi, in inglese: “Decoding Bias”. “Tutto il mio aspetto è il risultato di pregiudizi di genere. Ovviamente, l’intelligenza artificiale del servizio educato è ritratta come una donna e ovviamente l’avvocato della mente è un uomo”, dice uno degli avatar.

Leggi anche:Tutte le notizie e le informazioni sull’intelligenza artificiale




“In effetti, vogliamo usare la storia per mettere il dito sui pregiudizi nella nostra società maggioritaria. L’intelligenza artificiale è solo un mezzo per raggiungere un fine”, afferma la sviluppatrice Teresa Rewer. I pregiudizi incorporati sono strettamente correlati all’intelligenza artificiale. La storia dei nostri set di dati è contrassegnati da esclusione e discriminazione, che vengono poi trasmessi all’intelligenza artificiale. Ciò è ulteriormente rafforzato dal fatto che la maggior parte degli sviluppatori sono bianchi e maschi e filtrano i set di dati in quella direzione. “Questo spesso porta a bias di codifica”, spiega il sviluppatore, autore Miriam Schmidtke. Buono come il loro set di allenamento.”

ChatGPT: i dialoghi sono scritti utilizzando l’intelligenza artificiale

Per adattarsi allo stile del linguaggio AI, gli script sono stati scritti utilizzando ChatGPT. I movimenti del corpo e il linguaggio sono presi da attori reali e animati attraverso il processo di motion capture. Volevamo far luce sull’argomento da una prospettiva artistica. Crediamo che l’intelligenza artificiale ci accompagnerà molto. Quindi volevamo rendere l’argomento più accessibile in modo artistico. Altrimenti, c’è sempre un enorme pasticcio tecnologico. Allo stesso tempo, vogliamo anche affrontare il problema della discriminazione nella nostra comunità”, afferma Teresa Rewer.

Ha funzionato: lo spettacolo è uno sguardo divertente e critico su ciò che ci aspetta negli anni a venire.

Sala degli artisti a HolzmarktHolzmarktstraße 25, Mitte. fino al 12 marzo. Gli orari di apertura sono tutti i giorni alle 17:30, 18:45, 20:00 e 21:15. Il biglietto è di 12 euro. Presentazione in inglese.