Ciao fcm! Quello che dici non l'hai pensato solo tu, ma me lo prospettava anche un mio amico all'università!
In teoria è fattibile e oltre a te e al mio amico ci hanno pensato forse anche altre persone, studiosi che stanno cercando di ottenere un lettore degli stimoli visivi di carattere neurale, che riprodurrebbe poi su un monitor quello che una persona vede. Non so se abbiano pensato anche si sogni, ma dal punto di vista cerebrale vediamo nei sogni allo stesso identico modo in cui vediamo da svegli: attraverso un'elaborazione di stimoli cerebrali. L'unica differenza sta nel fatto che da svegli gli stimoli sono coerenti alla luce che arriva agli occhi mentre nel sonno sono inventati, ma di fatto il processo della visione è cerebrale e quindi potenzialmente misurabile.
Ti dico subito che gli EEG sono una tecnologia molto indiretta (ricordi l'esempio che trovai e che cito sempre? E' come cercare di capire una partita di calcio solo ascoltando le grida del pubblico da fuori lo stadio: sai che qualcosa succede, ma ne hai solo una vaga idea).
Per quanto riguarda quell'aggeggio che stanno sperimentando invece, c'è un ulteriore ostacolo, bisogna prima capire come rendere alla perfezione ogni singolo stimolo nervoso, per fare in modo che l'immagine che appaia a monitor sia esattamente quella che il soggetto sta vedendo. Bisogna cioè imparare il codice, in che lingua parla la corteccia visiva.
Su questo si è ancora incerti, quindi si sta procedendo per tentativi di carattere cumulativo:
Alle persone vengono mostrate molte immagini e ogni volta la macchinetta registra la loro reazione a livello cerebrale.
Più immagini vengono mostrate, più, cumulativamente, la macchinetta ha informazioni per capire come il soggetto veda, avendo anche il confronto con le immagini mostrate.
Forse in questo rientra anche un'educazione visiva individuale, che complicherebbe ulteriormente il compito, già arduo.
La sperimentazione procede e dalle immagini a confronto tra quelle mostrate e quelle proposte dalla macchinetta opportunamente istruita, si nota come le masse e anche i colori un po' corrispondano, ma in una maniera ancora molto grezza.
Essendo cumulativo il modo in cui la macchinetta sfrutta le proprie osservazioni per capire il funzionamento degli stimoli corticali, si potrebbe ipotizzare che se un soggetto osservi migliaia di immagini, magari per un periodo prolungato, la macchinetta potrebbe poi imparare ad approssimarle meglio ancora, ma per il momento i risultati sono questi.
In poche parole è una cosa teoricamente possibile, ma di difficile applicazione, data l'enorme complessità delle informazioni da decodificare, però c'è già chi si sta ponendo questo obbiettivo...
Ci sono anche dei brevi filmati di questo esperimento, se li trovo te li linko.