Un articolo da poco pubblicato su IEEE Spectrum a firma di David Evan Harris, un ex dipendente di Meta, mette in guardia dai pericoli dell’IA sviluppata con un approccio “open source”, ritenendo che la libera disponibilità di modelli “non censurati” agevoli la commissione di atti illeciti e invocando, fra le altre cose il blocco dello sviluppo di nuovi modelli e l’emanazione di norme retroattive per gestire le licenze dei sistemi IA che superano una certa soglia di capacità (quale, però, non è indicato). L’autore non afferma certo che l’open source sia una pratica illecita e, anzi, ne riconosce i meriti ma ritiene che, nel caso dell’AI, non dovrebbe essere ammessa di Andrea Monti – Inizialmente pubblicato su Strategikon – un blog di Italian Tech – La Repubblica Leggi tutto “L’ AI open source non è un crimine e non aiuta i criminali”
Possibly Related Posts:
- OpenAI ha ammesso di condividere le chat degli utenti con le autorità
- Il ruolo della stablecoin basata sullo Yuan nella strategia cinese globale
- Dati personali: un mutaforma che cambia a seconda di chi li usa
- Webcam violate: la fragilità nascosta del nostro mondo connesso
- Google non dovrà vendere Chrome. Ma non è Chrome a fare il monopolio di Google