Stuart Kauffman ha simulato la nascita della vita, il suo collega a Santa Fe John Holland ha simulato la crescita auto-organizzata del cervello. Ecco il mitico Conceptor, sviluppato nei laboratori IBM, padre delle simulazioni di reti neurali (RN) oggi impiegate negli studi sull’Intelligenza Artificiale.
Un insieme di nodi, come neuroni, e di connessioni, come sinapsi. Ogni nodo è un piccolo computer che memorizza alcune informazioni sul suo stato interno, e ad ogni sinapsi è assegnato un “peso”, una misura della forza di quel collegamento. Man mano che la rete simulata acquista esperienza i pesi si modificano: circoli autorinforzanti.
Lo scopo della simulazione è ottenere forme di apprendimento emergente. E, sembra proprio così: le reti neurali apprendono a riconoscere e classificare determinati input. In questo modo possono essere utilizzate per la risoluzione di classi di problemi senza essere programmate con approccio top-down. Oggi vengono utilizzate nei software di OCR, nei sistemi di riconoscimento facciale, nelle analisi di data mining, finanziarie o meteorologiche.
Vita che emerge dal basso. Apprendimento che emerge dal basso.
Nessun commento:
Posta un commento