A dispetto della robustezza dimostrata, uno dei principali problemi delle DNN (Deep Neural Networks) sembra essere la mancanza di completa affidabilità: da un lato certe istanze di un certo oggetto non vengono riconosciute e quindi classificate nella classe di oggetti di appartenenza (sottodeterminazione); dall’altro si presenta il problema opposto, dove immagini senza significato per l’essere umano vengono riconosciute, con un intervallo di confidenza molto elevato, come appartenenti a una certa categoria (sovradeterminazione). L’autore propone un’analogia con le Scienze Cognitive dove, da tempo, è acclarato che la capacità di categorizzazione tipicamente umana non può essere attribuita al solo aspetto della similarità. In altre parole: il semplice sottoporre immagini diverse di uno stesso oggetto nella fase di apprendimento non sembra essere garanzia di una valida capacità di categorizzazione sia nell’essere umano che nelle DNN. Almeno un altro elemento sembra necessario: il ricorso alle regole, a una sorta di “lista di controllo” utile a identificare correttamente l’oggetto, soprattutto nella prima fase di apprendimento. La proposta è quindi quella di rivedere anche per le DNN la metodologia di apprendimento della rete stessa non lasciando al solo massivo input di dati il compito di addestrare le DNN, pena i fallimenti che spesso si verificano su compiti semplici, limitando l’uso delle DNN stesse.
Come le teorie cognitive possono aiutare l'Intelligenza Artificiale / Celi, Luciano. - STAMPA. - 2:(2018), pp. 77-94. [10.4399/97888255130665]
Come le teorie cognitive possono aiutare l'Intelligenza Artificiale
Luciano Celi
2018-01-01
Abstract
A dispetto della robustezza dimostrata, uno dei principali problemi delle DNN (Deep Neural Networks) sembra essere la mancanza di completa affidabilità: da un lato certe istanze di un certo oggetto non vengono riconosciute e quindi classificate nella classe di oggetti di appartenenza (sottodeterminazione); dall’altro si presenta il problema opposto, dove immagini senza significato per l’essere umano vengono riconosciute, con un intervallo di confidenza molto elevato, come appartenenti a una certa categoria (sovradeterminazione). L’autore propone un’analogia con le Scienze Cognitive dove, da tempo, è acclarato che la capacità di categorizzazione tipicamente umana non può essere attribuita al solo aspetto della similarità. In altre parole: il semplice sottoporre immagini diverse di uno stesso oggetto nella fase di apprendimento non sembra essere garanzia di una valida capacità di categorizzazione sia nell’essere umano che nelle DNN. Almeno un altro elemento sembra necessario: il ricorso alle regole, a una sorta di “lista di controllo” utile a identificare correttamente l’oggetto, soprattutto nella prima fase di apprendimento. La proposta è quindi quella di rivedere anche per le DNN la metodologia di apprendimento della rete stessa non lasciando al solo massivo input di dati il compito di addestrare le DNN, pena i fallimenti che spesso si verificano su compiti semplici, limitando l’uso delle DNN stesse.File | Dimensione | Formato | |
---|---|---|---|
contributo_celi.pdf
Solo gestori archivio
Tipologia:
Versione editoriale (Publisher’s layout)
Licenza:
Tutti i diritti riservati (All rights reserved)
Dimensione
1.06 MB
Formato
Adobe PDF
|
1.06 MB | Adobe PDF | Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione