Salta al contenuto

Pubblicato
Aggiornato Ott. 17, 2023

Intelligenza Artificiale Generativa e SEO: perché è necessario un approccio etico

Intelligenza Artificiale Generativa e SEO

L’intelligenza artificiale generativa (o GenAI) è arrivata al grande pubblico, e non è necessaria molta immaginazione per intuire che imprimerà un cambiamento radicale in tutti i settori. Il cambiamento, in effetti, sta avvenendo sotto i nostri occhi: aziende e persone stanno scoprendo nuovi applicativi, che permettono di risolvere vecchi problemi, scoprirne di nuovi, creare nuove opportunità, rendere più efficienti i processi e divenire più efficaci nel raggiungere i propri obiettivi. Anche noi, in qualità di consulenti, lo facciamo ogni giorno, con la curiosità insaziabile che contraddistingue da sempre il nostro modus operandi.

Non eravamo certamente digiuni sul tema. L’intelligenza artificiale, generativa e non, è alla base di molte delle applicazioni che utilizziamo ogni giorno, e da molto prima che i prodigi dell’IA arrivassero al grande pubblico. Tuttavia è proprio in questi ultimi mesi che è sulla bocca di tutti e non potrebbe essere diversamente. L’intelligenza artificiale ha il potenziale per generare un cambiamento epocale in tutti gli ambiti della nostra società: economia, sanità, istruzione, lavoro, ecc. Ed è proprio per questo che essa genera sentimenti fortemente contrastanti: curiosità ed eccitazione, ma anche paura e apprensione.

Large Language Model di Wes Cockx, in collaborazione con Google Deepmind

L’adozione dell’IA in ambito lavorativo ha generato, specialmente nelle aziende, il timore di possibili fughe di dati e di un abuso da parte dei dipendenti. Per i lavoratori, invece, la paura è quella di essere sostituiti da una macchina che costa una frazione del loro stipendio e li supera in quasi tutto. Per tutti, la preoccupazione è dovuta anche ai grandi limiti che l’intelligenza artificiale generativa sta dimostrando, specialmente da quando alcune applicazioni sono arrivate al grande pubblico.

Nell’ultimo anno abbiamo assistito a un’improvvisa disponibilità di accesso alla GenAI, cosa che ha diffuso una maggiore consapevolezza sul potenziale che questi modelli hanno. Chi prima era abituato a interloquire con chatbot di dubbia intelligenza – che ricordiamo, non sono vera IA – oggi si ritrova esterrefatto di fronte a GPT-3.5 (o GPT-4 per la platea di paganti).

L’intelligenza artificiale generativa può portare significativi vantaggi per le aziende che scelgono di integrarla nei propri processi. Da diverso tempo anche noi stiamo sperimentando numerosi strumenti e servizi, rendendo più efficiente la gestione della nostra attività, ottimizzando i processi e ideando applicazioni e casi d’uso innovativi per perfezionare il nostro lavoro con il contributo della tecnologia.

Proprio la nostra conoscenza, però, ci ha portato a riflettere profondamente sull’uso che ne stiamo facendo e sull’impatto che l’IA ha e avrà sulla nostra società. Molti SEO, ad esempio, hanno iniziato a utilizzare Large Language Model come GPT-3 per scrivere i testi che prima stendevano di loro pugno, così come diverse testate hanno integrato modelli generativi al posto di giornalisti umani. Questo non è un problema in sé: un LLM dispone di molte più informazioni di quante non ne conosciamo noi: Geoffrey Hinton, ovvero il ricercatore più importante e influente al mondo in materia di intelligenza artificiale, ipotizza che modelli come GPT-4 abbiano una conoscenza pari a 1000 volte quella di noi umani.

Annuncio lancio GPT-4
OpenAI annuncia il lancio di GPT-4, 14 marzo 2023

Eppure, in quel trilione di connessioni, contro i nostri 100 trilioni, non esiste un briciolo di coscienza e di consapevolezza, di etica e di moralità. Per questo motivo è necessario stabilire e promuovere un approccio responsabile all’uso dell’IA, poiché un’integrazione efficace significa minimizzare il rischio di danni derivanti da un uso sconsiderato, e anche costruire un clima di fiducia tra gli stakeholder.

Esistono già numerose istituzioni e istituti che si stanno occupando di definire i principi per un uso etico dell’intelligenza artificiale, come le Recommendation on the Ethics of Artificial Intelligence dell’UNESCO, l’Institute for Ethics in AI dell’Università di Oxford,  l’HAI dell’Università di Stanford, oltre a numerosissime multinazionali come Google, Accenture, e IBM.

Questi framework, tuttavia, sono difficilmente adattabili al nostro contesto, specialmente alla nostra attività di consulenza SEO e SEA. Per questo motivo abbiamo deciso di stendere alcune norme per regolare l’uso di applicazioni di IA compatibilmente con i nostri principi etici.

Midjourney intelligenza artificiale generativa
Homepage di Midjourney

Pensare all’IA generativa come a un collaboratore, insegnante e assistente

Il feedback umano è necessario affinché i sistemi di intelligenza artificiale generativa operino in modo responsabile ed etico. Le persone svolgono un ruolo cruciale nella revisione e nella convalida dei risultati dei sistemi basati sull’IA, in quanto possono segnalare e correggere contenuti parziali o imprecisi, verificare che l’argomento sia appropriato, identificare potenziali insidie e prendere decisioni ragionate nei casi in cui i risultati prodotti dalla GenAI richiedano un ulteriore controllo.

Gli strumenti basati su intelligenza artificiale generativa possono acquisire e categorizzare numerose informazioni, facilitare la collaborazione tra team con competenze diverse, facilitare la condivisione di conoscenza. Questo rende le informazioni e i dati generati dai collaboratori più esperti straordinariamente preziosi, giacché entreranno a far parte dei set di dati utili a formare i sistemi.

Sulla scorta di questi elementi, abbiamo integrato la Generative AI nei nostri processi SEO con i seguenti principi.

  1.  I contenuti generati dall’IA non sono mai definitivi, dobbiamo sempre esaminarli e perfezionarli. Con i Large Language Model (qui trovate un ottimo approfondimento di Towards Data Science), come GPT-3.5 e GPT-4 di OpenAI o PaLM (sul quale si basa il chatbot Bard di Google), questo approccio implica la correzione di bozze e il fact-checking per individuare risultati distorti o potenzialmente dannosi. Non consideriamo mai il contenuto generato come vero o accurato prima che un operatore umano lo abbia verificato di persona.
  2. L’intelligenza artificiale, nei nostri processi, ha il ruolo di collaboratrice, insegnante e assistente, non di una nostra sostituta. L’intelligenza artificiale generativa può adempiere ad alcuni compiti precedentemente considerati esclusivi per gli esseri umani, ma può anche completare le attività a basso valore aggiunto e che richiedono molto tempo, permettendo così di concentrarci sulle sfide e i contributi dove la nostra capacità umana ha maggior valore.

Prevedere meccanismi per il monitoraggio e la valutazione continuativa dei sistemi di IA Generativa

La convalida e la messa a punto dei modelli sono fondamentali affinché le funzioni chiave degli strumenti di intelligenza artificiale, ovvero quelle di aiutarci a migliorare i processi e velocizzare il lavoro, siano espletate al meglio. Sfruttando le capacità degli algoritmi più avanzati, è possibile ricevere preziose indicazioni e analisi che possono aiutare a compiere scelte strategiche basate sui dati. Ad esempio, un SEO specialist può utilizzare sistemi basati su GenAI per creare contenuti che non solo contengono parole chiave pertinenti, ma soddisfano anche le condizioni dei motori di ricerca. I modelli di intelligenza artificiale sono infatti in grado di esaminare i contenuti che meglio si posizionano in SERP e identificare i pattern che più contribuiscono al loro ranking. L’integrazione di queste indicazioni nei processi di scrittura, consente di migliorare i contenuti per parole chiave in target e aumentarne la rilevanza, pur mantenendo un tono naturale e coinvolgente.

Per migliorare l’output dei sistemi di GenAI, è quindi necessario prevedere revisioni periodiche per verificare le prestazioni del sistema, identificare potenziali problemi e scongiurare la disinformazione e la generazione di contenuti parziali. Alla luce di queste, è possibile apportare le modifiche necessarie a dati e processi così da migliorare l’accuratezza e garantire che il sistema si adatti efficacemente e produca output affidabili.

Stabilire una politica d’uso responsabile

Le policy agiscono come vincoli che permettono di stabilire i limiti entro i quali gli applicativi basati su intelligenza artificiale sono sotto controllo. Ad esempio, è possibile definire chiaramente i casi d’uso appropriati per queste tecnologie, come quando uno specialista utilizza un applicativo di GenAI per svolgere un’attività di data analysis su un progetto, al fine di garantire la conformità alle leggi sulla privacy, agli accordi in essere con i clienti e alle politiche aziendali sul trattamento dei dati. L’ideazione di linee guida appropriate consente di stabilire sitemi di controllo più efficaci, così da proteggere le imprese dai rischi più rilevanti, tra cui le fughe di dati e la generazione di contenuti ricolmi di bias e informazioni errate.

Nella SEO, inoltre, bisogna prestare particolare attenzione anche tutte le volte in cui trattiamo argomenti di tipo YMYL, ovvero, nelle parole di Google utilizzate nelle sue Search Quality Evaluator Guidelines (per i più curiosi lascio qui il link) tutti quei “[…] topics (which) have a high risk of harm because content about these topics could significantly impact the health, financial stability, or safety of people, or the welfare or well-being of society”.

Includere l’IA nel proprio programma di lifelong learning

Conoscere l’intelligenza artificiale è fondamentale perché cambierà molti aspetti delle nostre attività e del nostro modo di lavorare. Questa ultima generazione di strumenti di GenAI è differente rispetto agli altri tipi di intelligenza artificiale che pervadono ormai molti momenti della nostra vita quotidiana. Si tratta di applicativi che possiamo gestire, controllare e dirigere anche senza la benché minima conoscenza preliminare. Si tratta di un momento storico unico, e di un cambiamento inedito nel nostro rapporto con l’IA.

Per far sì di essere preparati a questo cambiamento, non basta una conoscenza superficiale dell’argomento. È necessario dotarsi di una formazione completa che copra i vari tipi di GenAI, le sue applicazioni, le sue capacità, i potenziali pericoli e i problemi etici derivanti da un uso improprio, e il suo rapporto con gli stakeholder della nostra organizzazione.

Utilizzare set di dati diversi ma sempre rappresentativi

Le basi di qualsiasi sistema di intelligenza artificiale generativa risiedono nel cosiddetto training set (qui, se vi interessa, trovate una spiegazione su training, validation e test set). Gli algoritmi di intelligenza artificiale offrono risultati che si basano sulla loro conoscenza, ovvero sui dati in base ai quali sono stati addestrati – potremmo dire ormai “educati”. Da questo si capisce quanto la qualità (e la quantità) di dati sottoposti ai modelli nel corso del loro addestramento siano di importanza cruciale. Affinché pregiudizi, preconcetti ed errori siano ridotti al minimo, è necessario pertanto assicurarsi di utilizzare set di dati diversi e che siano rappresentativi. Utilizzando set di dati validi che prevedono un’ampia varietà di dati e fonti, e aggiornandoli frequentemente, è possibile ridurre il rischio che i modelli forniscano output parziali e informazioni false.

Informare collaboratori, clienti e partner sull’uso dei sistemi di GenAI

Un approccio etico e responsabile nell’uso dell’IA generativa parte dalla sua comunicazione. Crediamo che la trasparenza sia un elemento fondamentale per il successo delle relazioni, sia professionali che personali. Riteniamo quindi che una comunicazione sincera con clienti, collaboratori e partner sulla presenza e lo scopo dei contenuti generati dall’IA sia essenziale per integrare questi sistemi opportunamente, ivi compresa la condivisione di informazioni relative ai limiti di queste tecnologie e le azioni intraprese per contenerne i rischi.

Uno sguardo al futuro

Con la progressiva adozione di nuovi applicativi di GenAI all’interno dei nostri processi, e l’uscita di nuovi modelli derivanti dal progresso tecnologico, emergeranno nuovi rischi che imporranno l’aggiornamento dei principi e delle politiche d’uso atti a garantire un uso responsabile ed etico.

Tuttavia questo non ci deve indurre a temerne l’avvento. Con la giusta dose di conoscenza, ricavandoci il tempo necessario per comprendere a fondo la tecnologia sottostante e normarne l’uso, scopriremo che l’IA generativa è di beneficio per noi tutti, clienti, collaboratori e partner compresi. Non si tratta di essere sostituiti, ma di aumentare le nostre capacità grazie a nuovi strumenti in grado di renderci ancora più efficienti.