Secondo me è una questione temporale.
Quando l'AI diventerà davvero intelligente, i lavori di tipo concettuale saranno tutti a rischio o, meglio, assorbiti dalla super-AI.
Per quelli manuali bisognerà seguire i progressi della robotica.
Alo stato attuale non mi sembra esistano rischi concreti per i programmatori (ed in generale per gli esperti di un qualunque settore). Gli strumenti esistenti possono essere utilizzati, come molti già stanno facendo, come "aiutanti" più o meno capaci.
In fondo, se già oggi siete a capo di un team di sviluppo software ed avete in squadra dei programamtori junior, dovete necessariamente mettere in conto tempo ed energie per correggerli a farli crescere.
Per chi teme per il futuro, una soluzione l'avevo già proposta tempo fa: pubblicare tonnellate di codice errato. I mega modelli che "derubano" il vostro lavoro verranno allenati anche su tale spazzatura ed il loro livello resterà impresentabile..
Quando l'AI diventerà davvero intelligente, i lavori di tipo concettuale saranno tutti a rischio o, meglio, assorbiti dalla super-AI.
Per quelli manuali bisognerà seguire i progressi della robotica.
Alo stato attuale non mi sembra esistano rischi concreti per i programmatori (ed in generale per gli esperti di un qualunque settore). Gli strumenti esistenti possono essere utilizzati, come molti già stanno facendo, come "aiutanti" più o meno capaci.
In fondo, se già oggi siete a capo di un team di sviluppo software ed avete in squadra dei programamtori junior, dovete necessariamente mettere in conto tempo ed energie per correggerli a farli crescere.
Per chi teme per il futuro, una soluzione l'avevo già proposta tempo fa: pubblicare tonnellate di codice errato. I mega modelli che "derubano" il vostro lavoro verranno allenati anche su tale spazzatura ed il loro livello resterà impresentabile..