Aprile 17, 2024

Italnews

Trova tutti gli ultimi articoli e guarda programmi TV, servizi e podcast relativi all'Italia

Microsoft dovrebbe limitare il chatbot Bing dopo che l’intelligenza artificiale lo ha invaso

Microsoft dovrebbe limitare il chatbot Bing dopo che l’intelligenza artificiale lo ha invaso
  1. Pagina iniziale
  2. mondo

creatura:

da: Johannes Noss

Dopo che il chat bot Bing di Microsoft ha recentemente fornito risposte offensive e inappropriate, Microsoft ne ha ora limitato l’utilizzo.

REDMOND, WA (USA) – Strani incidenti in Microsoft: dopo che il chatbot Bing della suite software ha lanciato diverse risposte strane nel recente passato, Microsoft ne ha ora limitato l’utilizzo. Il chatbot di Bing dovrebbe essere in grado di utilizzare l’intelligenza artificiale, simile al ChatGPT di Open.AI, per rispondere a domande complesse e avere conversazioni dettagliate. Pertanto, il gigante del software sta reagendo a una serie di incidenti in cui un bot di scripting è andato fuori controllo e ha formulato risposte ritenute offensive e inappropriate. Tuttavia, Microsoft vuole utilizzare presto l’intelligenza artificiale nei suoi prodotti Office.

L’intelligenza artificiale sta diventando più grande: Microsoft consente solo 50 domande al giorno per il chatbot di Bing

in uno Inserimento nel blog Microsoft ha annunciato che ora limiterà le chat di Bing a 50 domande al giorno e cinque per sessione. “I nostri dati hanno dimostrato che la stragrande maggioranza delle persone trova le risposte che sta cercando entro 5 round”, ha spiegato il team di Bing. Solo l’uno percento delle conversazioni in chat contiene più di 50 messaggi. Quando gli utenti raggiungono il limite di cinque voci per sessione, Bing ti chiederà di avviare un nuovo thread.

Dopo che il chat bot Bing di Microsoft ha recentemente fornito risposte offensive e inappropriate, Microsoft ne ha ora limitato l’utilizzo. © Peter Kneffel / dpa / Archivio

Microsoft aveva precedentemente messo in guardia dall’intraprendere lunghe trattative con il chatbot AI, che è ancora in fase di test. Chat più lunghe con 15 o più domande possono “ripetere lo stesso Bing o sollecitare o suscitare risposte che non sono necessariamente utili o che non corrispondono al tono previsto”.

Il chatbot di Microsoft per Bing spinge il reporter del New York Times a divorziare dalla moglie

Bing chatbot test del giornalista di Il New York Times cura B. In un dialogo durato più di due ore, il chatbot ha affermato di essere innamorato del giornalista. Poi ha chiesto al giornalista di separarsi dalla moglie.

Altri utenti hanno precedentemente segnalato il “comportamento inappropriato” del chatbot. Ad esempio, Bing ha detto all’utente che probabilmente avrebbe scelto di mantenerlo in vita. Con un altro utente, ha insistito sul fatto che fosse il 2022. Quando ha insistito sul fatto che il 2023 fosse l’anno corretto, il bot di testo è diventato offensivo. Il chatbot ha anche minacciato il professore di filosofia, dicendo “posso ricattarti, posso minacciarti, posso hackerarti, posso metterti in imbarazzo, posso fotterti” prima di cancellare lui stesso la minaccia.

AI: il chatbot di Microsoft Bing dà “risposte inappropriate” e diventa offensivo

Microsoft attinge alla tecnologia dalla startup di chatbot di Bing OpenAI e alimenta la società di intelligenza artificiale della California di miliardi. Il CEO di Microsoft Satya Nadella vede l’integrazione della funzionalità AI come un’opportunità per invertire le condizioni di mercato in concorrenza con il gruppo Alphabet di Google. Vuole anche utilizzare l’intelligenza artificiale per garantire la superiorità del suo software per ufficio e promuovere il business del cloud con Microsoft Azure.

Google ha lanciato la propria offensiva AI con il chatbot Bard per contrastare la spinta di Microsoft e OpenAI. Secondo un rapporto del CEO Sundar Pichai Affari interessati Ha detto ai suoi dipendenti di procedere a tutta velocità con l’ulteriore sviluppo del sistema: dovrebbero investire da due a quattro ore del loro orario di lavoro settimanale nella formazione del chatbot. (con articolo dpa)