среда, 21 мая 2014 г.

მეცნიერებმა შეძლეს ადამიანის ფიქრების გაშიფრვა / Ученые «читают мысли» при помощи МРТ / Yale researchers reconstruct facial images locked in a viewer’s mind


Метод функционального магнитно-резонансного сканирования (фМРТ) позволяет «читать мысли».
В ходе нового исследования ученые из Йельского университета научились при помощи метода функционального магнитно-резонансного сканирования (фМРТ) реконструировать образы, которые видит человек в данный момент.


Функциональная магнитно-резонансная томография – разновидность магнитно-резонансной томографии, которая проводится с целью измерения гемодинамических реакций (изменений в токе крови), вызванных нейронной активностью головного или спинного мозга. фМРТ позволяет определить активацию определенной области головного мозга во время нормального его функционирования под влиянием различных физических факторов (например, движение тела) и при различных патологических состояниях.


В ходе исследования ученые провели эксперимент, в котором приняло участие 6 человек. Им показывали 300 фотографий с изображениями различных лиц. Параллельно ученые сканировали мозг добровольцев в МРТ-томографе, анализируя при этом, как МРТ-изображения мозга менялись в зависимости от того, что испытуемые видели (темные или светлые волосы, прямой или курносый нос и др.). Используя полученные данные, авторы исследования составили матрицу, в которой те или иные черты лица соответствовали активности разных структур мозга.

Затем участникам эксперимента были представлены другие лица. Ученые снова сканировали их мозг, а компьютер, используя заложенную матрицу, реконструировал изображения лица, которое добровольцы видели в данный момент.

По мнению специалистов, это «вариант чтения мыслей», который может быть полезен как в процессе совершенствования системы персональной идентификации, так и в исследованиях визуальных переживаний человека. 


Researchers Reconstruct Facial Images Locked in a Viewer’s Mind

Using only data from an fMRI scan, researchers led by a Yale University undergraduate have accurately reconstructed images of human faces as viewed by other people.
*See notes below the article for disclaimer about this research.*
“It is a form of mind reading,” said Marvin Chun, professor of psychology, cognitive science and neurobiology and an author of the paper in the journal Neuroimage.
The increased level of sophistication of fMRI scans has already enabled scientists to use data from brain scans taken as individuals view scenes and predict whether a subject was, for instance, viewing a beach or city scene, an animal or a building.
“But they can only tell you they are viewing an animal or a building, not what animal or building,” Chun said. “This is a different level of sophistication.”
This diagram shows the process from seeing a picture to the reconstructed image.
Researchers wanted to know whether it would be possible to reconstruct a human face from patterns of brain activity. The task was daunting, because faces are more similar to each other than buildings. Credit Alan Cowen.
One of Chun’s students, Alan S. Cowen, then a Yale junior now pursing an advanced degree at the University of California at Berkeley, wanted to know whether it would be possible to reconstruct a human face from patterns of brain activity. The task was daunting, because faces are more similar to each other than buildings. Also large areas of the brain are recruited in the processing of human faces, a testament to its importance in survival.
“We perceive faces in a much greater level of detail than we perceive other things,” Cowen said.
Working with funding from the Yale Provost’s office, Cowen and post doctoral researcher Brice Kuhl, now an assistant professor at New York University, showed six subjects 300 different “training” faces while undergoing fMRI scans. They used the data to create a sort of statistical library of how those brains responded to individual faces. They then showed the six subjects new sets of faces while they were undergoing scans. Taking that fMRI data alone, researchers used their statistical library to reconstruct the faces their subjects were viewing.
Cowen said the accuracy of these facial reconstructions will increase with time and he envisions they can be used as a research tool, for instance in studying how autistic children respond to faces.
Chun said the study shows the value of funding research ambitions of Yale undergraduates.
“I would never have received external funding for this, it was too novel,” Chun said.
Notes about this neuroimaging research
Important disclaimer: The abstract page offers this notice: “Note to users: Uncorrected proofs are Articles in Press that have been copy edited and formatted, but have not been finalized yet. They still need to be proof-read and corrected by the author(s) and the text could still change before final publication.”
Contact: Bill Hathaway – Yale
Source: Yale press release
Image Source: The image is credited to Alan Cowen and is adapted from the Yale press release.
Original Research: Abstract for “Neural portraits of perception: Reconstructing face images from evoked brain activity” by Alan S. Cowen, Marvin M. Chun, and Brice A. Kuhl in Neuroimage. Published online March 17 2014 doi:10.1016/j.neuroimage.2014.03.018 *In Press, Uncorrected Proof*
Share this Neuroscience News



წყარო: http://naked-science.ru

წყარო:  http://neurosciencenews.com

წყარო: http://www.sciencedirect.com
Please Share it! :)

Комментариев нет:

Отправить комментарий