Un’esperienza didattica con A.I. (SSPG)


Quella che portò oggi è un’esperienza didattica molto concreta, un’attività di geografia e educazione ambientale sulla storia dell’inquinamento in Europa, partendo dal 1950 fino a oggi. L’attività era finalizzata alla costruzione di un semplice grafico lineare, che i ragazzi potevano realizzare con un foglio di calcolo (Numbers) oppure direttamente su Keynote, che permette l’importazione di grafici pre formattati con modifica dati successiva. Tra l’altro gli studenti avevano già usato questi strumenti, quindi sapevo che questa parte di produzione, per quanto complessa, sarebbe stata comunque la parte più semplice e rapida dell’attività. La parte davvero impegnativa era proprio quella del reperimento dati, perché io non ho fornito alcuna informazione agli studenti, ho solo dato le istruzioni basilari, per esempio gli anni in cui circoscrivere la ricerca e le tipologie di inquinanti (esempio PM10 o NO2).
Cercare questi dati con un motore di ricerca rappresentava fino a poco tempo fa una difficoltà non di poco conto, con un rischio altissimo di non arrivare a nessuna informazione utile, anche considerato il target (dodicenni).
L’avvento dell’intelligenza artificiale, al riguardo, rappresenta un’ovvia opportunità. Tra l’altro, è possibile sfruttare le ricerche effettuate dal motore di ricerca stesso attraverso il Gemini integrato, quindi non è nemmeno necessario operare con specifiche applicazioni come Gemini o ChatGPT.
In ogni caso, io non ho negato l’utilizzo di Gemini, qualora avessero ritenuto necessario utilizzarlo; ho solo detto che le risposte del motore di ricerca avrebbero potuto già essere soddisfacenti.
Devo dire che l’iniziativa autonoma degli studenti di vagliare entrambe le fonti è stata comunque apprezzabile, perché in questo modo hanno realizzato un’attività di fact checking sorprendentemente matura senza bisogno del mio input.

Interpellare l’AI è in ogni caso abbastanza diverso che chiedere informazioni ai motori di ricerca..
Se un tempo una serie di keyword come “livello PM10 Europa 1950” poteva funzionare, ciò non vale come prompt per l’attuale Machine Learning… O meglio, l’AI “interpreta” una possibilità utilità e fornisce una serie di informazioni piuttosto complesse, con un linguaggio spesso inaccessibile.
È stata dunque un’occasione per affinare il cosiddetto Prompt Engineering.
Dopo circa 35 minuti di lavoro, i ragazzi sono pervenuti, gradatamente, alle informazioni utili.
Esempi: “Qual è il livello di biossido di azoto in Europa nel 1950?” (chi dice: “meglio ancora senza punto interrogativo”, ma in realtà è indifferente).
I risultati danno informazioni numeriche minime e massime, come è ovvio quando si chiede un’informazioni all’interno di range ampi (in questo caso “Europa” è contenuto troppo generico).
Un’altra problematica è data dal fatto che la rilevazione di dati di quel tipo potrebbe non essere stata mai fatta in tempi remoti (1950).
Indicazioni utili: bypassare l’anno in cui non ci sono dati; chiedere all’AI di fare “proiezioni” sulla base delle informazioni in possesso.
Se si vuole essere più precisi, è possibile circoscrivere la ricerca ad alcuni Paesi (i più estesi come superficie? i più industrializzati nel dopoguerra? un Paese per ogni “area geografica”, nord, sud, ovest, est??) e poi fare una media tra questi.
Se si è bravi a scrivere il prompt, si può forzare il ML e chiedere già una tabella con dati a confronto (tutte le annate e una media europea); es. “mi fai una lista di dati con i livelli dell’inquinante PM10 suddiviso per annate (1950, 1970, 1990, 2010, 2026)? L’area considerata è l’Europa (fai una media con i dati i possesso, Paese per Paese)”
Un prompt così particolareggiato è efficace con Gemini e Chat GPT (ad es.), ma offre possibilità interessanti anche con Google perché rimanda ad un sito esaustivo.
L’eventuale esito metacognitivo è che gli studenti si rendano conto empiricamente che, per avere un risultato complesso e affidabile da parte della rete, occorre che la query sia sempre più precisa e corretta.