A dispetto della robustezza dimostrata, uno dei principali problemi delle DNN (Deep Neural Networks) sembra essere la mancanza di completa affidabilità: da un lato certe istanze di un certo oggetto non vengono riconosciute e quindi classificate nella classe di oggetti di appartenenza (sottodeterminazione); dall’altro si presenta il problema opposto, dove immagini senza significato per l’essere umano vengono riconosciute, con un intervallo di confidenza molto elevato, come appartenenti a una certa categoria (sovradeterminazione). L’autore propone un’analogia con le Scienze Cognitive dove, da tempo, è acclarato che la capacità di categorizzazione tipicamente umana non può essere attribuita al solo aspetto della similarità. In altre parole: il semplice sottoporre immagini diverse di uno stesso oggetto nella fase di apprendimento non sembra essere garanzia di una valida capacità di categorizzazione sia nell’essere umano che nelle DNN. Almeno un altro elemento sembra necessario: il ricorso alle regole, a una sorta di “lista di controllo” utile a identificare correttamente l’oggetto, soprattutto nella prima fase di apprendimento. La proposta è quindi quella di rivedere anche per le DNN la metodologia di apprendimento della rete stessa non lasciando al solo massivo input di dati il compito di addestrare le DNN, pena i fallimenti che spesso si verificano su compiti semplici, limitando l’uso delle DNN stesse.

Come le teorie cognitive possono aiutare l'Intelligenza Artificiale / Celi, Luciano. - STAMPA. - 2:(2018), pp. 77-94. [10.4399/97888255130665]

Come le teorie cognitive possono aiutare l'Intelligenza Artificiale

Luciano Celi
2018-01-01

Abstract

A dispetto della robustezza dimostrata, uno dei principali problemi delle DNN (Deep Neural Networks) sembra essere la mancanza di completa affidabilità: da un lato certe istanze di un certo oggetto non vengono riconosciute e quindi classificate nella classe di oggetti di appartenenza (sottodeterminazione); dall’altro si presenta il problema opposto, dove immagini senza significato per l’essere umano vengono riconosciute, con un intervallo di confidenza molto elevato, come appartenenti a una certa categoria (sovradeterminazione). L’autore propone un’analogia con le Scienze Cognitive dove, da tempo, è acclarato che la capacità di categorizzazione tipicamente umana non può essere attribuita al solo aspetto della similarità. In altre parole: il semplice sottoporre immagini diverse di uno stesso oggetto nella fase di apprendimento non sembra essere garanzia di una valida capacità di categorizzazione sia nell’essere umano che nelle DNN. Almeno un altro elemento sembra necessario: il ricorso alle regole, a una sorta di “lista di controllo” utile a identificare correttamente l’oggetto, soprattutto nella prima fase di apprendimento. La proposta è quindi quella di rivedere anche per le DNN la metodologia di apprendimento della rete stessa non lasciando al solo massivo input di dati il compito di addestrare le DNN, pena i fallimenti che spesso si verificano su compiti semplici, limitando l’uso delle DNN stesse.
2018
Luciano Celi
Concetti e processi di categorizzazione
Roma
Aracne
978-88-255-1306-6
Celi, Luciano
Come le teorie cognitive possono aiutare l'Intelligenza Artificiale / Celi, Luciano. - STAMPA. - 2:(2018), pp. 77-94. [10.4399/97888255130665]
File in questo prodotto:
File Dimensione Formato  
contributo_celi.pdf

Solo gestori archivio

Tipologia: Versione editoriale (Publisher’s layout)
Licenza: Tutti i diritti riservati (All rights reserved)
Dimensione 1.06 MB
Formato Adobe PDF
1.06 MB Adobe PDF   Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11572/206698
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact