Alcuni utenti su X di Elon Musk si rivolgono al bot AI di Musk, Grok, per il fact-checking, sollevando preoccupazioni tra i fact-checker umani che questo possa alimentare la disinformazione. All’inizio di questo mese, X ha permesso agli utenti di interagire con Grok di xAI e porre domande su vari argomenti. Questa mossa è simile a quella di Perplexity, che gestisce un account automatizzato su X per offrire un’esperienza simile.
Subito dopo la creazione dell’account automatizzato di Grok su X da parte di xAI, gli utenti hanno iniziato a sperimentare ponendogli domande. Alcune persone in mercati come l’India hanno iniziato a chiedere a Grok di verificare i fatti su commenti e domande che mirano a specifiche credenze politiche. I fact-checker sono preoccupati per l’uso di Grok — o di qualsiasi altro assistente AI di questo tipo — in questo modo, poiché i bot possono formulare risposte che suonano convincenti, anche se non sono corrette dal punto di vista fattuale.
Lo scorso agosto, cinque segretari di stato hanno esortato Musk a implementare cambiamenti critici a Grok dopo che le informazioni fuorvianti generate dall’assistente sono emerse sui social network prima delle elezioni negli Stati Uniti. Altri chatbot, tra cui ChatGPT di OpenAI e Gemini di Google, sono stati visti generare informazioni inaccurate sulle elezioni dell’anno scorso. Separatamente, i ricercatori di disinformazione hanno scoperto nel 2023 che i chatbot AI, inclusi ChatGPT, potrebbero essere facilmente utilizzati per produrre testi convincenti con narrazioni fuorvianti.
“Gli assistenti AI, come Grok, sono davvero bravi a usare il linguaggio naturale e a dare una risposta che sembra detta da un essere umano. E in questo modo, i prodotti AI hanno questa pretesa di naturalezza e risposte che suonano autentiche, anche quando sono potenzialmente molto sbagliate. Questo sarebbe il pericolo qui,” ha detto Angie Holan, direttrice dell’International Fact-Checking Network (IFCN) presso Poynter, a TechCrunch.
Grok è stato chiesto da un utente su X di verificare i fatti su affermazioni fatte da un altro utente. A differenza degli assistenti AI, i fact-checker umani utilizzano più fonti credibili per verificare le informazioni. Si assumono anche la piena responsabilità delle loro scoperte, con i loro nomi e organizzazioni allegati per garantire la credibilità.
Pratik Sinha, co-fondatore del sito web indiano di fact-checking no-profit Alt News, ha affermato che sebbene Grok attualmente sembri avere risposte convincenti, è valido solo quanto i dati con cui è alimentato. “Chi deciderà quali dati gli vengono forniti, ed è qui che l’interferenza del governo, ecc., entrerà in gioco,” ha osservato. “Non c’è trasparenza. Qualsiasi cosa che manca di trasparenza causerà danni perché qualsiasi cosa che manca di trasparenza può essere modellata in qualsiasi modo.”
In una delle risposte pubblicate all’inizio di questa settimana, l’account di Grok su X ha riconosciuto che potrebbe essere “utilizzato in modo improprio — per diffondere disinformazione e violare la privacy.” Tuttavia, l’account automatizzato non mostra alcun disclaimer agli utenti quando ricevono le sue risposte, portandoli a essere disinformati se, ad esempio, ha allucinato.
Fonte: Tech Crunch



