Un articolo da poco pubblicato su IEEE Spectrum a firma di David Evan Harris, un ex dipendente di Meta, mette in guardia dai pericoli dell’IA sviluppata con un approccio “open source”, ritenendo che la libera disponibilità di modelli “non censurati” agevoli la commissione di atti illeciti e invocando, fra le altre cose il blocco dello sviluppo di nuovi modelli e l’emanazione di norme retroattive per gestire le licenze dei sistemi IA che superano una certa soglia di capacità (quale, però, non è indicato). L’autore non afferma certo che l’open source sia una pratica illecita e, anzi, ne riconosce i meriti ma ritiene che, nel caso dell’AI, non dovrebbe essere ammessa di Andrea Monti – Inizialmente pubblicato su Strategikon – un blog di Italian Tech – La Repubblica Continue reading “L’ AI open source non è un crimine e non aiuta i criminali”
Possibly Related Posts:
- Cosa significa il bando cinese di Whatsapp, Telegram e Signal dall’App Store di Apple
- Lo Human Genome Meeting di Roma riporta in primo piano la necessità di liberare l’uso dei dati
- Il duello tra Usa e Cina sui processori va oltre l’autonomia tecnologica
- Quali conseguenze potrebbe avere il possibile bando di TikTok negli Usa
- Libertà di stampa, giornalismo investigativo e Stato di diritto