محققان دانشگاه نیوکاسل مکانیزمی را شناسایی کردند که مغز با استفاده از آن میتواند خلاءهای موجود در زمان پردازش اطلاعات صوتی به دست آمده از قوه شنوایی را پر کند.
در این تحقیقات مجموعهای از صداها به صورت یک زبان مصنوعی و با الگوهای گرامری خاص برای میمونها و انسانهای داوطلب پخش شد و مطابق انتظار هر دو گونه به سرعت توانستند قواعد گرامری این زبان مصنوعی را فرا بگیرند. پس از دوره آموزشی اولیه، صداهای بیشتری برای آنها پخش شد که در برخی قواعد گرامری مذکور رعایت نشده بود.
محققان برای ثبت واکنش نورونها در زمان پردازش اطلاعات صوتی، از میکروالکترودهایی استفاده کردند که برخی روی تعداد محدودی از نورونها و برخی دیگر روی تمام نورونهای مغز متمرکز بودند.
در این تحقیقات مشخص شد فعالیت مغز هر دو گونه میمون و انسان برای تشخیص صداهای پخش شده مشابه است و تنها بر اساس ترکیب صداها تغییر میکند. البته صداهای مورد استفاده در این تحقیقات متعلق به یک زبان واقعی نبودند و برای اطمینان از عملکرد مشابه مغز در تشخیص زبانهای واقعی به تحقیقات بیشتری نیاز است.
این تحقیقات دانش ما را در زمینه تحول زبان و چگونگی پردازش سخنان در مغز انسان توسعه میدهد و زمینه را برای ساخت ابزارهای تشخیصی جدید برای شناسایی بیماریها و اختلالات عصبی مانند اسکیزوفرنی و بیشفعالی فراهم میکند.
گزارش کامل این تحقیقات در نشریه PLoS Biology منتشر شده است.