Un articolo da poco pubblicato su IEEE Spectrum a firma di David Evan Harris, un ex dipendente di Meta, mette in guardia dai pericoli dell’IA sviluppata con un approccio “open source”, ritenendo che la libera disponibilità di modelli “non censurati” agevoli la commissione di atti illeciti e invocando, fra le altre cose il blocco dello sviluppo di nuovi modelli e l’emanazione di norme retroattive per gestire le licenze dei sistemi IA che superano una certa soglia di capacità (quale, però, non è indicato). L’autore non afferma certo che l’open source sia una pratica illecita e, anzi, ne riconosce i meriti ma ritiene che, nel caso dell’AI, non dovrebbe essere ammessa di Andrea Monti – Inizialmente pubblicato su Strategikon – un blog di Italian Tech – La Repubblica Continue reading “L’ AI open source non è un crimine e non aiuta i criminali”
Possibly Related Posts:
- Neuralink è l’anticamera della discriminazione tecnologica
- Social network, poteri privati e diritti pubblici
- La “privacy” uccide gli esseri umani per proteggere la persona
- L’India compie un passo importante verso l’indipendenza tecnologica. Cosa cambia
- GDPR e OpenAI: quanto sono fondate le accuse del Garante?