rete neurale artificiale
Modello matematico delle funzioni cerebrali, costruito a partire da semplici unità elementari di calcolo, che sono a volte chiamate neuroni, per analogia con le loro controparti biologiche. Sebbene le realizzazioni hardware siano diventate un argomento importante di ricerca, le reti neurali sono ancora, per lo più, simulate su normali calcolatori. Ogni unità di calcolo di una rete neurale ha un solo output e diverse connessioni in input, che ricevono gli output di altre unità. A ogni connessione in input (contraddistinta dall’indice i) viene assegnato un numero reale, il cosiddetto peso sinaptico, che è il parametro modificabile fondamentale della rete. Per calcolare l’output di una unità, tutti i valori in ingresso vengono prima moltiplicati per i rispettivi pesi e poi sommati. Unità semplici di questo tipo possono sviluppare un potere computazionale notevole, se interconnesse in un’architettura opportuna. Un tipo importante di rete è costituito dalla cosiddetta architettura feedforward, che possiede due strati di unità di calcolo e accoppiamenti modificabili. I nodi di input (che non effettuano calcoli) sono accoppiati alle cosiddette unità nascoste, che inviano i risultati dell’elaborazione a una o più unità di output. Con un’architettura di questo tipo, si può approssimare con precisione arbitraria qualsiasi funzione continua degli input, purché il numero di unità nascoste sia abbastanza alto. Il tipo più semplice di rete è il cosiddetto perceptron, che ha un’architettura con un solo strato e una funzione a gradino come funzione di attivazione. Nonostante la sua struttura semplice, esso può fornire delle prestazioni non banali di generalizzazione in molti problemi di apprendimento. (*)