Ecco un problema migliore
CasaCasa > Blog > Ecco un problema migliore

Ecco un problema migliore

Aug 14, 2023

I contenuti generati dall’intelligenza artificiale stanno iniziando a inquinare Internet, le imprese e le scuole a un livello senza precedenti. In alcuni casi, potrebbe essere più semplice rilevare il testo umano piuttosto che segnalare i contenuti generati dall’intelligenza artificiale. Per lo meno, potrebbero completarsi a vicenda.

La rapida crescita dei contenuti generati dall’intelligenza artificiale sta stimolando la discussione su come i fornitori di intelligenza artificiale possano migliorare gli strumenti per rilevare i contenuti generati dall’intelligenza artificiale. Questa è un’aspirazione importante, ma questo tipo di approcci non sono già all’altezza del testo. E non solo per i “cappelli neri” che tentano di violare la sicurezza dell’intelligenza artificiale o di destabilizzare le democrazie. Studenti pigri, dipendenti sovraccarichi, operatori di marketing senza scrupoli e laboratori sfruttatori di etichettatura dei dati violeranno facilmente la maggior parte delle garanzie con il light editing. Un approccio molto migliore potrebbe essere quello di individuare gli esseri umani utilizzando una combinazione di metadati paralinguistici e crittografia a chiave pubblica.

E stanno emergendo strumenti che possono aiutare a stabilire una catena di provenienza a questo scopo. Come ho scritto in precedenza su diginomica, i rilevatori di contenuti AI per video, audio e immagini potrebbero attingere a una lunga storia di strumenti di filigrana digitale e protezione della proprietà intellettuale. Tuttavia, gli strumenti per il rilevamento automatico del testo generato dall’intelligenza artificiale sono un problema molto più difficile da risolvere. Le filigrane digitali sono molto più difficili da incorporare nel testo semplice. Si stanno facendo progressi interessanti nell’incorporare modelli statistici, usi grammaticali strani e persino convenzioni di punteggiatura nel testo. Un esempio è stato il tentativo di Genius di incorporare uno strano schema nei suoi testi musicali per dimostrare che Google ne stava copiando direttamente il contenuto. Quel caso, tuttavia, non riuscì a vincere la causa in tribunale.

I sistemi scolastici di tutto il mondo temono che i recenti progressi nell’intelligenza artificiale generativa basata sul Large Language Model (LLM) possano potenziare gli sforzi degli studenti per imbrogliare. A lungo termine, il successo in questo sforzo potrebbe produrre un gran numero di lavoratori incompetenti, incapaci di gestire efficacemente imprese, governi e, beh, di insegnare. Ma questo non è solo un problema accademico. I governi stanno iniziando ad emanare leggi riguardanti pratiche senza scrupoli di revisione di prodotti e servizi. Il Regno Unito sta attualmente lavorando a una proposta di legge sui mercati digitali, sulla concorrenza e sui consumatori che vieta lo scambio di denaro o beni gratuiti per scrivere recensioni di prodotti. È solo questione di tempo prima che una legislazione simile venga estesa ad approcci più automatizzati, come ad esempio gli operatori di marketing senza scrupoli che mettono in piedi una folla di falsi esseri umani per esaltare le meraviglie dei loro prodotti o per denigrare le offerte competitive.

E le aziende di etichettatura dei dati stanno iniziando a confrontarsi con una rete dispersa di persone pagate per applicare etichette ai contenuti per addestrare la prossima generazione di IA. Questi sono essenziali per garantire che i futuri strumenti di intelligenza artificiale possano migliorare nell’identificazione degli oggetti nelle immagini, controllare i contenuti tossici o migliorare le prestazioni di un nuovo gruppo di app di intelligenza artificiale aziendali. Una preoccupazione è che gli etichettatori di dati oberati di lavoro potrebbero rivolgersi a ChatGPT e altri LLM. Anche se questo può essere ottimo per la produttività dei dati e alcune attività di etichettatura dei dati. Uno svantaggio è che la formazione degli LLM sui contenuti generati dall’intelligenza artificiale potrebbe portare al collasso del modello di intelligenza artificiale in cui anche i nuovi modelli non riescono a funzionare altrettanto bene.

Alcuni anni fa, il settore bancario ha lottato contro l’aumento delle frodi favorito dai nuovi servizi online. Nel frattempo, un’economia in abbonamento in crescita ha avuto difficoltà con la condivisione delle password in cui gli individui condividevano le proprie password con servizi di informazione di alto valore con amici e familiari. È stato osservato che molte informazioni sono incorporate non solo nel testo della password ma anche nei metadati su come viene digitata la password. A causa dei diversi stili di digitazione, cadenza e ritmo, le persone tendono a digitare le lettere in modi molto diversi. Vari team chiamano questo fenomeno biometria comportamentale, dinamica della pressione dei tasti o metadati paralinguistici. Diversi tipi di queste tecniche possono anche estendere il concetto alle tecniche di mouse e all'input vocale.

In ambito accademico, avrebbe senso incorporare le misure di questi parametri comportamentali in una nuova generazione di elaboratori di testi. Potrebbe non essere nemmeno necessario sviluppare app completamente nuove. Potrebbero semplicemente essere incorporati in una libreria open source che gli elaboratori di testi, le app Web e altri strumenti esistenti potrebbero utilizzare.