I modelli di linguaggio non devono limitarsi ad apprendere dai dati

« Allenare i modelli satistici di linguaggio su database rappresentativi dei diversi punti di vista della società, inclusi quelli minoritari, è fondamentale, ma dobbiamo anche intervenire nella progettazione dei modelli. Li stiamo sviluppando come se dovessero imparare tutto da zero, ma non è necessario», ci ha detto Dirk Hovy, linguista computazionale dell'Università Bocconi. Hovy coordina il progetto INTEGRATOR, finanziato dallo European Research Council con uno Starting Grant, che ha l'obiettivo di integrare fattori demografici nei modelli di linguaggio per mitigare il rischio di discriminazione. I rischi etici e sociali posti dall''utilizzo di modelli di linguaggio che apprendono da database di grandi dimensioni tramite un enorme numero di parametri è l'oggetto dell'articolo che ha portato tra dicembre e febbraio al licenziamento di due autorevoli scienziate del gruppo Ethical AI di Google e ora alle dimissioni del coordinatore del progetto Google Brain. Ma il contenuto dell'articolo, secondo Hovy, non è così controverso e anzi affronta problemi di cui una parte della comunità informatica si occupa da tempo. «La vicenda sottolinea che la nostra ricerca ha una nuova dimensione etica e che il rapporto tra accademia e industria deve essere rinegoziato per affrontarla».
Crediti immagine: M-OCRROR typeface
La scorsa settimana, Samy Bengio, direttore del progetto Google Brain, ha annunciato le sue dimissioni. A fine aprile lascerà la società dopo 14 anni.