Ha ancora senso studiare informatica se a programmare sarà l’Intelligenza Artificiale, più efficiente ma che spesso non riusciamo a capire?

Tra "Vibe Coding", opacità delle AI, e rischi occupazionali

L’arrivo dell’intelligenza artificiale non ha soltanto cambiato il modo in cui produciamo software: ha introdotto un elemento radicalmente nuovo, qualcosa che nessuna tecnologia precedente aveva portato con sé. Le macchine che apprendono non sono più strumenti trasparenti. Non seguono regole scritte dall’uomo, non applicano algoritmi che possiamo ricostruire passo dopo passo. L’AI genera soluzioni attraverso processi che non coincidono con il ragionamento umano e che spesso non sono pienamente interpretabili nemmeno da chi le ha progettate. Questo non significa che siano misteriose, ma che operano secondo logiche statistiche, non simboliche, e che la loro efficacia non deriva dalla comprensione, bensì dall’addestramento.

È proprio questa opacità a rendere ancora più urgente la necessità di una cultura del software. Se un sistema produce codice che funziona ma non sappiamo perché, chi sarà in grado di verificarne la correttezza, la sicurezza, l’affidabilità? Non basta premere un pulsante: serve qualcuno che sappia leggere ciò che la macchina ha scritto, interpretarlo, valutarlo. La programmazione non serve solo a creare software, ma a comprendere ciò che il software fa, anche quando non siamo stati noi a scriverlo.

C’è chi sostiene che, se l’AI diventerà abbastanza potente, potremo lasciarle il compito di programmare da sola. È una possibilità reale, almeno in parte. Ma anche in questo scenario rimane un punto critico: chi controllerà la macchina che controlla il codice? La storia della tecnologia insegna che ogni volta che deleghiamo un compito complesso a uno strumento, dobbiamo almeno conoscere i principi che lo governano. Non per sostituirlo, ma per non esserne completamente dipendenti.

Il paragone con la calcolatrice è inevitabile. Nessuno oggi calcola logaritmi a mano, e sarebbe assurdo farlo. Ma sappiamo cosa sia un logaritmo, a cosa serve, come si usa. La calcolatrice non ci ha resi ignoranti: ci ha liberati dal calcolo meccanico, non dalla comprensione matematica. Allo stesso modo, l’AI può liberarci dalla scrittura ripetitiva del codice, ma non dalla necessità di capire come funziona un sistema informatico. Senza questa comprensione, saremmo come studenti che usano una calcolatrice senza sapere cosa stanno calcolando.

La differenza, però, è che la calcolatrice è uno strumento trasparente: sappiamo esattamente cosa fa. L’AI no. E proprio per questo non possiamo permetterci di rinunciare alla capacità umana di analizzare, interpretare e criticare ciò che la macchina produce. Non si tratta di competere con l’AI, ma di mantenere un ruolo attivo nel processo decisionale. Se lasciamo che la tecnologia diventi una scatola nera, rischiamo di perdere non solo competenze tecniche, ma autonomia intellettuale.

Studiare programmazione, oggi, significa prepararsi a un mondo in cui le macchine saranno sempre più capaci, ma anche sempre più opache. Significa sviluppare gli strumenti mentali per dialogare con sistemi che non ragionano come noi, per comprenderne i limiti, per riconoscere quando sbagliano. Significa, in definitiva, garantire che l’intelligenza artificiale rimanga un alleato e non un’autorità incontestabile. La conoscenza non serve a fare ciò che la macchina fa meglio, ma a capire ciò che la macchina fa al posto nostro.

Il futuro non richiede meno comprensione, ma più. E la programmazione, lungi dall’essere un esercizio superfluo, è uno dei modi più efficaci per costruire quella consapevolezza critica che ci permetterà di convivere con tecnologie sempre più potenti senza rinunciare alla nostra capacità di giudizio.