
L’intelligenza artificiale, dal visionario abbozzo di Alan Turing negli anni ’50, ha catalizzato l’interesse collettivo, diventando una forza che incapsula la sfida tra il genio creativo dell’essere umano e la potenza tecnologica emergente.
E come tutte le cose nuove, quando non le si conosce abbastanza, il primo meccanismo umano che si attiva è la paura. Nonostante le migliaia di anni di evoluzione, infatti, restiamo degli animali. Esseri che scappano di fronte al pericolo per aumentare le probabilità di sopravvivenza.
Quindi come è avvenuto anche con l’avvento della radio, che si diceva ci avrebbe fritti il cervello, l’avvento dei cellulari, del 5G e tutto il resto, si avvia sempre un movimento luddista contro le nuove tecnologie. E i giornali ci marciano a pieni polmoni per macinare più fatturato.
Analizziamo, quindi, i motivi per i quali l’intelligenza artificiale incute timore e rispecchia dubbi legati alla trasformazione digitale, al lavoro e alla sicurezza informatica.
Indice dei contenuti
La percezione dell’IA tra opportunità e minaccia
L’intelligenza artificiale è un campo che suscita sentimenti contrastanti, con un’ampia percentuale di italiani, il 61%, che ne riconosce il ruolo positivo in ambiti cruciali come la scienza, la medicina, l’industria e la logistica.
Tuttavia, una quota pari al 50% associa l’intelligenza artificiale a una minaccia, evidenziando i pericoli dell’AI che possono insorgere nel corso della sua evoluzione.
Questo dualismo emerge anche a livello globale, dove, secondo uno studio di LinkedIn, due lavoratori su cinque si sentono sopraffatti dall’impatto potenziale dell’intelligenza artificiale, mentre nove su dieci sono entusiasti delle possibilità offerte da questa tecnologia innovativa.
In Italia, il 33% dei lavoratori si sente sopraffatto dall’IA, ma il 60% crede che possa diventare una “mano amica”, facilitando le attività quotidiane. La reazione all’intelligenza artificiale varia anche in base all’età: la Generazione Z è la più preoccupata, con il 44% che esprime timori. Tuttavia, il 58% di questa generazione desidera imparare a utilizzare gli strumenti di IA, pur non sapendo da dove iniziare.
L’IA è ormai entrata in vari aspetti della vita quotidiana, personale e professionale. Google, ad esempio, ha annunciato un fondo da 3 milioni di euro per soluzioni di IA con un impatto positivo in Italia, segno di un crescente riconoscimento del suo potenziale benefico.
Si prevede che l’intelligenza artificiale migliorerà la produttività, l’efficienza e l’organizzazione nel 74% dei casi, potenziando la sicurezza sul lavoro nel 66% dei casi, ma potrebbe anche influire negativamente su salari e benefici nel 49% delle situazioni.
I lavori manuali, come idraulica, elettricità, costruzioni e lavorazione dei metalli, sono considerati meno suscettibili agli impatti dell’IA. Al contrario, dipendenti bancari, controllori di qualità, agenti di viaggio e cassieri sono percepiti come i più a rischio.
Per questo, gli esperti raccomandano un potenziamento delle competenze digitali per sfruttare i benefici dell’IA e ridurre il divario digitale.
Nonostante l’intelligenza artificiale possa semplificare numerose operazioni, non può replicare l’intelligenza emotiva umana né i momenti di pura ispirazione, i cosiddetti “eureka”. Questa consapevolezza alimenta la necessità di una regolamentazione attenta per gestire l’impatto dell’IA sulla privacy e la sicurezza dei dati.
I principali timori legati all’IA
Nonostante una parte della popolazione italiana riconosca i vantaggi dell’intelligenza artificiale, una percentuale significativa manifesta preoccupazioni legate ai pericoli dell’AI.
Circa il 17% degli italiani non ha mai sentito parlare di AI e solo l’11% è informato sui suoi benefici e potenziale, una lacuna di conoscenza che può alimentare incertezze e timori. Inoltre, il 58% esprime dubbi sulla responsabilità in caso di danni causati dall’IA, mentre il 49% ritiene che la legislazione attuale non sia adeguata, evidenziando una percezione di inadeguatezza normativa nel fronteggiare le sfide poste dall’automazione e dal machine learning.
La questione della fiducia è ulteriormente minata dal sospetto che il 57% degli italiani nutre nei confronti delle aziende, che si ritiene utilizzino l’IA per manipolare gli utenti, e dal 45% che teme discriminazioni derivanti dalla categorizzazione degli utenti basata su scelte e caratteristiche personali.
Questi dati riflettono un’ansia diffusa riguardo all’uso etico dell’intelligenza artificiale e ai rischi di un’applicazione scorretta che potrebbe portare a conseguenze indesiderate.
L’avanzamento dei modelli di IA, come il GPT-4 di OpenAI, che hanno dimostrato una coerenza e una capacità incrementate, solleva interrogativi sui rischi potenziali che tali tecnologie possono comportare.
La preoccupazione è condivisa anche da pionieri dell’IA come Geoffrey Hinton, che ha lasciato Google per esprimere rinnovata preoccupazione riguardo la capacità incontrollata dell’AI, spingendo verso sforzi regolatori da parte dei governi.
Tuttavia, non tutti gli esperti concordano sui rischi a lungo termine dell’AI; alcuni ritengono che l’allarmismo distolga l’attenzione da problemi immediati come il bias nell’IA e la disinformazione, tematiche che richiedono un’analisi critica e interventi mirati.
Intelligenza Artificiale e crimini informatici
L’intelligenza artificiale, con i suoi vantaggi incalcolabili, porta con sé anche un lato oscuro che si manifesta nella crescente sofisticazione dei crimini informatici.
Gli attacchi cyber potenziati dall’AI rappresentano una preoccupazione in ascesa, poiché tali tecnologie possono essere utilizzate per sviluppare malware avanzati e condurre attacchi mirati. Ad esempio, sono stati utilizzati attacchi di forza bruta, resi possibili dall’AI, per eludere sistemi di sicurezza sofisticati, una minaccia che non può essere sottovalutata.
Inoltre, l’AI ha trovato applicazione nella creazione di messaggi di phishing personalizzati e convincenti, aumentando significativamente il rischio per la sicurezza informatica.
A tal proposito di recente Apple ha introdotto la tecnologia Post-Quantum 3 (PQ3) per cifrare in modo sicuro i messaggi di iMessage, considerando il potenziale del quantum computing.
Nel corso del 2022, si sono verificati 2.489 incidenti significativi legati alla cybersecurity a livello mondiale, con l’82% riconducibile a crimini informatici, un dato che sottolinea l’importanza di affrontare gli attacchi cyber potenziati dall’IA.
Questi attacchi non solo mirano a compromettere la sicurezza dei dati ma possono anche identificare e sfruttare vulnerabilità nei sistemi finanziari per attività illecite come frode e crimini finanziari.
Un tema significativo nel campo dell’AI e dei crimini informatici è l’uso dell’AI per la sorveglianza e il controllo, con la proposta di regolamentazione dell’IA dell’UE che monitora da vicino il suo impatto sui diritti e le libertà dei cittadini.
Come sta reagendo la società
La società sta mostrando una crescente inquietudine nei confronti dei pericoli dell’AI, soprattutto per quanto riguarda le implicazioni sul lavoro, la privacy e l’impatto sulla democrazia.
Un’indagine condotta da YouGov rivela che più della metà della popolazione mondiale è preoccupata per la perdita di posti di lavoro a causa dell’intelligenza artificiale. Questa apprensione non è infondata, considerando che l’automazione e il machine learning stanno trasformando radicalmente il mercato del lavoro, rendendo obsoleti alcuni mestieri e richiedendo una riqualificazione professionale.
Basti pensare all’introduzione recente di Sora da parte di OpenAI. Un motore di generazione di video di qualità da prompt testuali che potrebbe mettere in pericolo l’industria dei videomaker in pochi anni.
Nel contesto italiano, il dibattito sull’intelligenza artificiale pro e contro si intensifica, con un’attenzione particolare ai rischi che essa comporta. La trasformazione digitale, pur portando vantaggi intelligenza artificiale, solleva questioni etiche e sociali.
I vantaggi e i pericoli dell’intelligenza artificiale sono oggetto di analisi critica, con il pubblico che chiede maggiore chiarezza sulle misure adottate per mitigare gli intelligenza artificiale rischi.
Il timore di un futuro in cui l’intelligenza artificiale possa compromettere la sicurezza dei dati personali e influenzare le dinamiche democratiche sta spingendo la società a richiedere un maggiore controllo e regolamentazione.
La consapevolezza dei pericoli dell’AI sta crescendo parallelamente alla conoscenza dei suoi potenziali benefici, evidenziando la necessità di un equilibrio tra l’adozione di questa tecnologia e la salvaguardia degli interessi umani.
La questione della fiducia nell’IA
L’Unione Europea è al lavoro per sviluppare una strategia sull’intelligenza artificiale che sia in linea con i propri valori, mirando a creare un ambiente in cui i cittadini si sentano sicuri e incoraggiati a utilizzare le tecnologie IA, e le imprese siano incentivate a svilupparle.
Il mercato italiano dell’IA è stato valutato 860 milioni di euro nel 2021 e ha superato gli 1,4 miliardi di euro nel 2023. Il governo italiano ha lanciato il Programma Strategico Intelligenza Artificiale 2022-2024 per aumentare gli investimenti nella ricerca e sviluppo dell’IA.
Il Parlamento Europeo, nella sua risoluzione sull’IA, sottolinea la necessità di un approccio centrato sull’uomo e chiede il divieto dei sistemi d’armi autonomi letali (LAWS), evidenziando l’importanza di proteggere i diritti umani e garantire la trasparenza nell’uso dell’IA.
Conclusioni
Gli elementi analizzati evidenziano come l’equilibrio tra l’entusiasmo per le opportunità offerte dall’IA e la cautela davanti ai suoi pericoli sia delicato, e quanto sia cruciale procedere con un approccio regolamentato e consapevole.
È fondamentale promuovere una cultura dell’IA informata, inclusiva e responsabile, che permetta di valorizzare i progressi tecnologici tutelando al contempo i nostri valori umani, la sicurezza dei dati personali e l’integrità dei processi democratici.

Perché non c’è ancora Apple nel settore.. appena Apple presenta la sua tutti tranquilli..
La mia?