کامران غبرایی

گوش موسیقایی یا تن موسیقایی؟ – کامران غبرایی

درآمد

ما به موسیقی گوش می‌دهیم! به گوش جان می‌شنویمش! به گوش می‌گیریم، یا گوش می‌سپاریم! همه‌اش پای گوش در میان است، اما راستی گوش همه‌ی ماجراست؟ استاد نازنینم، بابک احمدی، همیشه اصرار داشت که اگر بنا باشد یکی از حواسش را ببازد، ترجیح می‌دهد گوش‌اش نباشد. به باورش این دنیا چیز زیبای زیادی برای دیدن ندارد، اما هنوز چه زیبایی‌ها هست که باشد شنیدشان. به‌قاعده اگر گوش را به تصادف ببازیم، دیگر از زیباترین زیبایی‌ها بی‌نصیب می‌مانیم! بتهوون را نگاه کنید. شگفتا که بزرگ‌ترین بزرگان آفریننده‌ی زیباترین زیبایی‌ها از مهم‌ترین حس بی‌نصیب شد و گوش به تصادف باخت. پس چطور شد که بزرگ‌ترین فرم زیباترین زیبایی‌ها را در روزگاران ناشنوایی‌اش آفرید؟ واقعا شنیدن کدام است؟ آن‌گاه که صدا را به حلزونی گوش می‌گیریم؟ همین حالا که این نوشته را می‌خوانید، دمی چشم از متن برگیرید و موومان چهارم سمفونی نهم را به ذهن بیاورید! یا اصلا هر قطعه‌ی دیگری که از بر می‌دانید، در ذهن باز بخوانید. آواز کنید و ساز بیاورید… شنیدن کدام است؟ خاطرات صدا با صدا چه فرقی دارد؟ چطور می‌توان این دو از هم بازکافت؟ بد نیست مختصری درباره‌ی مجراهای شنوایی باز بیندیشیم و ببینیم عمل شنوایی در مغز، کجاها رخ می‌دهد. البته با این هشدار که در این یادداشت صرفا چند مجاری برشمارده می‌شود و هیچ بنا ندارم تمام رخدادهای شنوایی مغز را به یک باره در جستاری چند صفحه‌ای بازخوانی کنم. اول نوبت مجراهای بالارونده است، یعنی همان‌ها که از دستگاه حسی داده‌ها را برمی‌گیرند و رو به بالا، به دستگاه مرکزی اعصاب، می‌برند تا در پایانه‌ها و سامانه‌ها سنجش و پردازش شوند.

مجراهای شنوایی بالارونده

ادراک موسیقایی با رمزگشایی از داده‌های آواشناختی آغاز می‌شود. پیام‌های صوتی، همچون گفتار و موسیقی از در گوش انسان وارد می‌شود و رشته‌ای از انتقال‌ها در گذرگاه مجاری‌های شنوایی سرآغاز می‌گیرد (نـ. کـ. تصویر ۱). داده‌های شنوایی ورودی از گوش بیرونی و میانی حلزونی به گوش درونی می‌رسد، همان‌جا که داده‌های شنوایی به زبان کنش‌های عصبی برگردانده می‌شود.

تصویر ۱. مجاری اعصاب شنوایی از رشته‌ای درهم‌تندیه از نقاط اتصال پردازش‌گر تشکیل می‌شود که از پی‌توده‌ی حلزونی (پ‌ح) سرآغاز می‌گیرد و به قشر شنوایی فوقانی (ق‌ش) و منطقه‌های شنوایی رده‌بالایی در قشر گیجگاهی فوقانی (ق‌گ‌ف) می‌رسد. تخفیف‌های تصویر: پ‌ح، پی‌توده‌ی حلزونی؛ گ‌زف، گره زیتونی فوقانی؛ ب‌ت، بیرون‌آمدگی تحتانی؛ ا‌س، اسبک (هیپوکمپ)؛ پ‌زم، پی‌توده‌ی زانویی میانی؛ ق‌ش، قشر شنوایی؛ قشر گیجگاهی فوقانی.

بیرون حلزونی، دارینه‌ها (دندریت‌ها)ی گره پیچیزه‌ای با سطح یاخته‌های مویی نهفته در اندام کُرتی در شامه‌ی قاعده‌ای به هم می‌آیند [بخوانید همایه‌ای/سیناپتیک می‌شوند]. یاخته‌های گره پیچیزه‌ای (گانگلیون مارپیچی) در پی تحرک یاخته‌های مویی قرارگرفته در شامه‌ی قاعده‌ای، نخستین عصب‌هایی به شمار می‌آیند که در مسیر یا همان مجاری شنوایی پتانسیل کاری شلیک کرده و به واسطه‌ی آسه‌ها (اکسون‌ها)ی به‌هم‌آمده [بخوانید سیناپتیک] با دارینه‌های پی‌توده‌ی حلزونی، داده‌های دریافتی صوتی مغز را جابه‌جا می‌کنند. به بیان خلاصه، پیش از حلزونی، دندریت‌هایی هستند که با یاخته‌ها یا سلول‌های مویی پیوند می‌خورند و همین‌که این یاخته‌های مویی تحریک شدند و داده‌ای دریافت کردند، این گانگلیون مارپیچی تیز خودبه‌خود تحریک می‌شود و شروع می‌کند به شلیک.

غالب آسه‌ها (اکسون‌ها، نزدیک به ۷۰ درصد) به نیم‌سپهر مخالف میل می‌کنند و مبدأشان در سطوحی از پی‌توده‌ی حلزونی در پوشش دگرسو است، حالی‌که شماری از آن‌ها در همان نیم‌سپهر همسو دریافت‌گر اصوات باقی می‌مانند. داده‌های صوتی، تا پیش از رسیدن به منطقه‌های قشری، در بستر رشته‌ای از پی‌توده‌های ساقه‌ی مغز تا اندازه‌ی زیادی پیش‌پردازش می‌شود. خصیصه‌های بنیانی آوایی، همچون شدت صدا، آغازه‌ی پیام صوتی، دورِگی، و تعیین مکان صدا در پی‌توده‌ی حلزونی، آویزپی جنبی (لمنیسک جانبی)، و گره زیتونی فوقانی [از داده‌های آوایی] استخراج می‌شود. مجاری دومی نیز از پی‌توده‌ی حلزونی بطنی ریشه می‌گیرد که از بَر آن آسه‌هایی رو به ساختار مشبک به شلیک درمی‌آیند، ساختاری که به‌واقع سامانه‌ای هشداردهنده در ساقه‌ی تحتانی مغز است. آسه‌های پایین‌رونده (وابران) از ساختار مشبک از طریق پیوند یافتن با عصب‌های حرکتی در طناب نخاعی و برانگیزاندن واکنش‌های حرکتی به محرک صوتی و پدید آوردن قابلیت انگیزش‌پذیری عصبی، به مجاری صدایی-نخاعی شکل می‌بخشد. مجاری بالارونده‌ی (آورانِ) دوم دربر دارنده‌ی کانون‌های شنوایی پایینی و مختص به بالا بردن آستانه‌های شنوایی و هشدار دادن به قشر مغزی برای دریافت پیام‌های آوایی است.

در مجاری آورانِ اول، گره زیتونی فوقانی نخستین پایانه‌ی بازپخش‌گر در ساقه‌ی مغز است که داده‌های حلزونی از هر دو سو را گرد هم می‌آورد و با اندازه‌گیری تفاوت زمان و شدت صداهای دریافتی از چپ و راست سر و تعیین زاویه‌ی صدا، بنیانی کالبدشناختی برای پردازش مکان صدا فراهم می‌کند. رمزگشایی زمانی و طیفی پیام‌های صوتی در برآمدگی تحتانی (کولیکول پایینی) انجام می‌گیرد. مطالعات مبتنی بر تصویربرداری با تشدید مغناطیسی کارکردی (اف‌ام‌آرآی) روی جانوران نشان می‌دهد که ابعاد زمانی و طیفی پیام‌های صوتی به‌طور مشخص در برآمدگی تحتانی ترسیم می‌شوند و این امر نشان از آن دارد که افزون بر نقشه‌های [بخوانید ترسیم‌های] صداآراستی (تونوتوپیک)، داده‌های زمانی پیام‌های صوتی نیز به‌صورت مکان‌نمایی‌شده در برآمدگی تحتانی بازنمایی می‌شوند. واپسین پرتابه‌های بیناسویایی در سطح برآمدگی تحتانی انجام می‌گیرد.

اخرین نقطه‌ی زیرقشری در مجاری اولیه‌ی بالارونده همانا توده‌ی مفصل‌وار (زانویی) میانی است که از چند زیرمجموعه ساخت می‌یابد. پی‌توده‌ی بطنی توده‌ی مفصل‌وار میانی به‌صورت صداآراستی (تونوتوپیک) سامان می‌یابد و مسیر اصلی بالاورنده به سوی قشر اولیه‌ی شنوایی است، درحالی‌که زیرمجموعه‌های دیگر این توده به‌طور گسترده هم به سوی قشر شنوایی اولیه و هم قشرهای شنوایی غیر از اولیه پیام می‌فرستند. باید توجه کرد که مجاری شنوایی نه‌فقط پرتابه‌های آوران (پایین-به‌بالا) را حمل می‌کند، بل پرتابه‌های پرشمار بالا-به‌پایین (وابران) را نیز بر دوش می‌گیرد که در گردش واکنش‌های عصبی در کانون‌های شنوایی زیرقشری و نرمش‌پذیری‌های ناشی از یادگیری نقشی اساسی دارند. به‌طورکلی رسانش در مجاری شنوایی تندتر و نیرومندتر از انتقال‌ها در مجاری دگرسو (کنترالَترال) است.

منطقه‌ی قشری شنوایی انسان در بخش خلفی (پسینی) لُب گیجگاهی فوقانی جای دارد و شکنج هشل و قسمت‌هایی از پلانوم تمپوراله (سطح صدغی) و شکنج گیجگاهی فوقانی پسینی را می‌پوشاند. به بیان دقیق‌تر، قشر شنوایی اولیه تا حد زیادی در منطقه‌ی میانی شکنج هشل (منطبق با ناحیه‌ی برادمن ۴۱) جای گرفته است و محدوده‌ی شنوایی اصلی آن به‌صورت صداآراستی سامان می‌یابد، به شکلی که زیرمنطقه‌های مختلف قشر مخی به بسامدهای متفاوت حساس می‌شوند. قشر شنوایی اولیه تحلیل‌هایی جزئی و مشخص از داده‌های صوتی – همچون بسامد، و گردش‌های زمانی-طیفی گرد می‌آورد و به‌این‌ترتیب نقشی اساسی در تبدیل خصیصه‌های آوایی به ادراک شنوایی ایفا می‌کند (همچون تبدیل بسامد صوتی به درجه‌ی موسیقایی). مطالعات پرشماری روی آسیب‌های مغزی و تصویربرداری‌های کارکردی شکنج هشل جنبی را در مقام ناحیه‌ی درجه‌شناس تصدیق کرده‌اند و این نکته گواه است که ادراک درجه‌ی موسیقایی [بخوانید کوک] در همین منطقه‌ی قشری مشخص در قشر شنوایی بازنمایی می‌شود (برای اطلاعات بیشتر، ر. کـ. کار رابرت زاتوری و جاناتان دْزاراته).

پس از رمزگشایی اولیه از داده‌های صوتی در قشر اولیه‌ی شنوایی، داده‌ها به قشر ثانوی شنوایی (واقع در پلانوم تمپوراله و سطح قطبی (پلانوم پولاره) و به قشر دست‌بالاتر تداعی در قشر گیجگاهی فوقانی و شیار گیجگاهی فوقانی می‌رود. ناحیه‌های غیر اولیه‌ی قشر شنوایی در شماری از کارکردهای اساسی برای تثبیت بازنمایی شناختی از محیط صوتی نقش دارند، ازجمله در بازنمایی اشیای صوتی (شکل‌یابی گشتالت [کلیت] آوایی) که مشتمل است بر فرآیندهایی چون تحلیل نواخت ملودی، جای‌گیری فضایی، تشخیص روابط بیناصدایی، و تفکیک اجزای رشته‌های آوایی.

در بطن قشر شنوایی غیر اولیه چند شبکه‌ی متمایز جای دارد که هرکدام نقش کارکردی متفاوتی بازی می‌کند. شواهد مقبولی دال بر نقش شکنج گیجگاهی فوقانی – هم خلفی و هم قدامی نسبت به شکنج هشل – در کار است که از کار این شکنج در پردازش ملودی پرده برمی‌دارد (برای بازبینی این موضوع ر. کـ. به کار یناتا، پرتس و زاتوری، و زاتوری و دزاراته(. محض نمونه، لب گیجگاهی فوقانی (مشتمل بر شکنج گیجگاهی فوقانی و شیار گیجگاهی فوقانی) در مطالعات روی نواخت‌بندی ملودی‌ها و پردازش آن (نـ. کـ. به)، درک فواصل ملودی (نـ. کـ. به)، تشخیص طیفی صدا (نـ. کـ. به)، و ادراک مقوله‌شناختی آکوردهای ماژور و مینور (نـ. کـ. به) این مدعا را ثابت کرده است. شگفتا مطالعات نشان می‌دهند که محدوده‌ی خلفی قشر شنوایی در رمزگشایی از تغییرات درجات و ارتفاع صوت (که به سنجش طیفی صوت بازمی‌گردد) نقش دارد، حالی‌که ناحیه‌های قدامی‌تر بیشتر به تمبر صدا حساس است (که این ویژگی به موقعیت درجه‌ی صوتی در گام معین ربط دارد) و از این رو می‌توان دریافت که ابعاد متفاوت درجات صوتی احتمالادر منطقه‌های متنوع قشر شنوایی انسان پردازش می‌شود. شواهد مطالعاتی اخیر نشان از آن دارد که منطقه‌های آهیانه‌ای و خلفی شیار گیجگاهی فوقانی از منطقه‌های اصلی مغزی در درآمیزش‌های چندحسی هستند، درست همان‌جا که محرک‌های شنیداری، دیداری، بساوشی، و چندحسی در خلال توزیع بخش‌بخش داده‌ها به هم می‌رسد و سپس در قشر مخی درهم آمیخته می‌شود. در مورد کارکردهای قشرهای نیم‌سپهر چپ و راست نیز تفاوت‌هایی گزارش شده است که نشان می‌دهد ناحیه‌های شنوایی قشری چپ حساسیت زمانی بیشتری نشان می‌دهند، درحالی‌که همان ناحیه‌های شنوایی قشری در سوی راست، تحلیل طیفی بیشتری از خود نشان می‌دهند. پژوهش‌ها به‌طور منسجم خبر از رجحانی در نیم‌سپهر راست برای پردازش طیفی دقیق صوت و ترجیحی برای واکنش به ویژگی‌های زمانی صدا در نیم‌سپهر چپ مغز داده‌اند و همین نکته پشتیبانی فرضیه‌ای است که می‌گوید این بی‌قرینگی‌های کارکردی در گام‌های مقدماتی پردازش صوتی احتمالا با خصلت‌های طبیعی هرکدام از دو نیم‌سپهر رابطه دارد. وانگهی الگوی فعال‌سازی دو نیم‌سپهر به اقتضای پیچیدگی محرک یا پرورش موسیقایی تعیین می‌شود.

با عنایت به ادراک موسیقایی، یافته‌هایی که تا اینجا یاد شد خبر از نوعی سامان‌یابی سلسله‌مراتبی در پردازش شنیداری می‌دهد. قشر شنوایی اولیه در استخراج و تفکیک و دگرسانی‌های درجات در بافتار ملودی نقشی اساسی بازی می‌کند، ولیک ناحیه‌های غیراولیه در تشخیص روابط درجات به کار می‌افتند تا نواخت‌بندی ملودی را معین کنند. حال فرآیندهای انتزاعی‌تری لازم است تا روابط نحوی تثبیت شود و منطقه‌های عموما بیرون از قشر شنوایی، ازجمله در قشر پیشانی، معنا پدید آید.

حال باید شبکه‌های مرتبط با حرکت را سنجید و دید که چطور بخشی از شنیدن ما با خود عمل حرکت رابطه‌ای مستقیم و معنادارد دارد و چطور می‌توان فرض کرد که بخشی از عمل شنیدن، همان عمل حرکت کردن است.

شبکه‌های شنوایی-حرکتی

پرتابه‌های قشر حرکتی به قشر شنوایی از پدیده‌های ساختاری مشترک میان بسیاری از گونه‌های جانوری است. مطالعات جانوری راستی از بهترین الگوهایی است که برای بازشناسی سازوکارهای همایه‌ای (سیناپسی) و شبکه‌ای به کار می‌آید؛ قشر حرکتی مغز به سبب این سازوکارهاست که با تکاپوی قشر شنوایی رابطه پیدا می‌کند. برای نمونه، مطالعه‌ای تازه روی موش‌ها نشان می‌دهد که آسه‌ها (اکسون‌ها)ی برآمده از قشر حرکتی دوم همایه‌هایی با پی‌یاخته‌ها (نورون‌ها)ی تحریکی و همچنین با پی‌یاخته‌های مهاری در لایه‌هایژرف و سطحی قشر شنوایی می‌سازند و زیرمجموعه‌ای از این پی‌یاخته‌ها آسه‌هایی به سوی ناحیه‌های زیرقشری متنوع دراز می‌کند که این امر در پردازش شنوایی بسا اهمیت دارد. تحلیل پتانسیل میدان موضعی مَکَک‌ها نیز داده‌های ارزش‌مندی درباره‌ی زیربنای عصبی ضرب گرفتن و همگام‌شدن با ضرب برایمان فراهم آورده است؛ و برای نمونه نشانمان داده است که نوسان‌های عصبی در موج بتا احتمالا شبکه‌های گسترانده از جسم مخطط تا نهنج تا منطقه‌های قشری (استریاتو-تالامو-کورتیکال) را در حین دریافت و تولید حسی ریتم به هم پیوند می‌دهد (برای اطلاعات بیشتر ر. کـ. مرچنت و بارتلو، مرچنت، گران، ترینر، رُرمایر و فیچ و همچنین فصل «بنیان‌های عصبی دریافت ریتم» از همین مجموعه).

پژوهش‌های اخیر همچنین برون‌فکنی‌هایی را تشخیص داده‌اند که پیام‌های شنوایی را به منطقه‌های حرکتی مغز انسان منتقل می‌کند. فرناندز-میراندا و همکاران نشان داده‌اند که بافتی از ماده‌ی سفید به نام پی‌کلاف کمانی راست و چپ که قشرهای گیجگاهی جنبی را به ناحیه‌های پیشانی پیوند می‌دهد درواقع به چند زیرمجموعه با آسه‌های متمایز تقسیم می‌شود (نـ. کـ. تصویر ۲). یک مجموعه از آسه‌ها در شکنج بطنی پیشاکانونی و شکنج جلویی میانی دُمی (بروکا-۴، بروکا-۶) پایان می‌یابد و به‌این ترتیب پرتابه‌های قشر شنوایی را به ناحیه‌های حرکتی (قشر حرکتی اولیه، قشر پیشاحرکتی) منتقل می‌کند.

تصویر ۲. زیرمجموعه‌های پی‌کلاف کمانی چپ با پایانه‌هایی در قشر حرکتی اولیه و قشر پیشاحرکتی، منطبق بر ناحیه‌های ۴ و ۶ برادمن (شکنج‌های بطنی پیشاکانونی و پیشانی میانی دمی). پی‌کلافِ کمانیِ چپ  (Left Arcuate Fasciculus) راه ارتباطی اصلی میان ناحیه‌های زبانی پسین و پیشانی که نقش مهمی در پردازش زبان، تولید گفتار و یکپارچگی واجی دارد. قشر حرکتیِ اولیه  (Primary Motor Cortex – BA4) بخش اصلی برای آغاز و فرمان‌دهی حرکت‌های ارادی، به‌ویژه حرکات ظریف اندام‌هاست. قشر پیشاحرکتی (Premotor Cortex – BA6) ناحیه‌ای درگیر در برنامه‌ریزیِ حرکت، آماده‌سازی توالی‌های حرکتی و پاسخ‌های حسی‌ـ‌حرکتی است. شکنجِ بطنیِ پیشاکانونی (Ventral Precentral Gyrus) بخش پایینی ناحیه‌ی حرکتی/پیشاحرکتی که به کنترل حرکات دهان، چهره و بخش‌های فوقانی اندام‌ها کمک می‌کند. شکنجِ پیشانیِ میانیِ دُمی  (Caudal Middle Frontal Gyrus) بخشی از ناحیه‌ی پیش‌پیشانی که با برنامه‌ریزی شناختی، کنترل اجرایی و هماهنگی اطلاعات حرکتی در ارتباط است.

پژوهش‌های پرشمار تصویربرداری یافته‌های زیادی از سازواری کارکردی قشرهای حرکتی و شنوایی فراهم آورده‌اند. مطالعات نشانمان داده است که گوش دادن و رمزنگاری ریتم‌های شنیدنی پیوندهای شنوایی-حرکتی مغز را تقویت می‌کند و جفت‌شدن ناحیه‌های حرکتی و شنوایی به کمک تعلیم موسیقایی رشد می‌کند. در ضمن مطالعات نشان می‌دهند که تحریک‌پذیری قشری-نخاعی به واسطه‌ی موسیقی‌هایی با ضرب‌های شدید سامان‌یابی می‌شود و همین نشان می‌دهد که کافی است به ریتم موسیقایی گوش بدهیم تا مجاری حرکتی حرکتی در قشر شنوایی اولیه رو به طناب نخاعی به شلیک درآیند. شواهد دیگری هم دال بر جفت‌شدگی قشرهای شنوایی و حرکتی در سطح طناب نخاعی در دست داریم که از بَرِ مطالعات دیگر فراهم آمده است، مطالعاتی که نشان می‌دهد تحریک مغناطیسی درون‌جمجمه‌ای به هنگام شنیدن موسیقی عامل تشدید تحریک‌پذیری قشری-نخاعی می‌شود و عضلات دخیل در کار ضرب گرفتن با پا (همچون درشت‌نی جلویی و ماهیچه‌ی دوقلو) را به کار وامی‌دارد و میزان تحریک‌پذیری قشری-نخاعی تابع میزان تعلیم موسیقایی است و در میان موسیقی‌دانان این اندازه بسا بزرگ‌تر خواهد بود. آخر هم شواهد پی‌تن‌کردشناختی  گواه می‌دهد که منطقه‌های شنوایی و حرکتی به سبب تکاپوی تاب‌وار (نوسانی) با همدیگر ارتباط برقرار می‌کنند و و دوری که بین این منطقه‌ها در قشر مخی شکل می‌گیرد پیش‌بینی‌هایی زمان‌بنیان رقم می‌زند که در فهم شنوایی نقشی اساسی دارد و در دریافت موسیقی و لذت بردن از آن به کار می‌آید. به گواه این یافته‌ها از جستجوها در لایه‌های مختلف این موضوع، می‌توان دریافت که پیوندی استوار و کاراندام‌شناختی بین ناحیه‌های شنوایی و حرکتی برقرار است و بسیاری از اجزای دستگاه حرکتی در ادراک شنوایی، در پدید آمدن توقع‌ها و پیش‌بینی‌ها و همچنین در دریافت و لذت بردن از ریتم‌های موسیقایی دخالت دارند.

درهم‌تنیدگی ناحیه‌های شنوایی و حرکتی برای درک زمان و تولید حرکت‌های زمان‌بنیان اهمیت اساسی دارد. پردازش زمانی و سازواری‌یابی حسی‌حرکتی در شبکه‌های کارکردی ساخت‌یافته از منطقه‌های دوردست قشری و زیرقشری، همچون مخچه، گره‌های قاعده‌ای (به‌طور مشخص پوتامِن)، نهنج، قشر حرکتی تکمیلی، قشر پیشاحرکتی تکمیلی، قشر پیشاحرکتی، و قشر شنوایی انجام می‌گیرد. گرچه نقش خاص هریک از ناحیه‌ها همچنان درحال تدقیق شدن است، مطالعات تازه‌تر ما را به توافقی در این باب برده است که دست‌کم دو شبکه‌ی متمایز در امر درک زمان وجود دارد – یکی بر کار مخچه در پردازش خطاهای پیش‌بینی حسی، سازگاری‌یابی حرکتی، و زمان‌بندی دیرایی‌ها تکیه دارد و دومی بر مبنای نقش گره‌های قاعده‌ای و قشر حرکتی تکمیلی در زمان‌مندی ضرب‌بنیان و حرکت‌های واکنشی در پاسخ به ریتم‌ها به کار درمی‌آید.

تأثیرهای حسی‌پیکری

ازآنجاکه همه‌ی صداها در نتیجه‌ی طنین منبعی صوتی تولید می‌شود، پس نباید تعجب کرد که شماری از شواهد موجود در مورد ادراک درجات صوتی و دیگر ابعاد موسیقایی بر داده‌های لرزه‌ای-بساوشی (همچون لرزش مکانیکی پوست) تکیه داشته باشد. آستانه‌های آشکارسازی برای محرک‌های لرزه‌ای-بساوشی بیشینه‌ای در حدود ۲۵۰ هرتز نشان می‌دهند، و در بسامدهای زیر ۱۰۰ هرتز، افت شدیدی در حساسیت (یعنی آستانه‌های بزرگ‌تر) مشاهده می‌شود. آستانه‌ها در منطقه‌های همواره پوست (خلاف جاهای پرمو) کوچک‌تر هستند، چراکه تراکم گیرنده‌های مکانیکی بیشتری در این مناطق دیده می‌شود و به سبب تأثیرات انباشتگی مکانی (فضایی) ناحیه‌های تماس بزرگ‌تری دارند. آستانه‌های تشخیص درجات موسیقایی، یعنی آستانه‌هایی که به واسطه‌ی محرک لرزه‌ای-بساوشی پدید می‌آید، عموما پنج بار بزرگ‌تر از آن دست از آستانه‌هاست که توسط محرک شنیداری محض فراهم می‌آید. افزون بر این توانایی به‌نسبت سست در تشخیص درجات، هیچ گواه روانی-کاراندام‌شناختی متقنی دال بر تمایزگذاری درجات صوتی فراتر از ۱۰۰۰ هرتز در کار نیست.

مشاهده‌ی تک‌یاخته‌ای در میان میمون‌های مَکَک نشان داده است که محرک لرزه‌ای-بساوشی با بسامد پایین به تحریک ناحیه‌های کمربندی در قشر شنوایی منتهی می‌شود. شواهد مرافق دیگری نیز در بستر مطالعات تصویربرداری از بزرگسالان با شنوایی‌های عادی فراهم آمده است. چنین می‌نماید که محرک لرزه‌ای-بساوشی در بسامد پایین قشر شنوایی را در هر دو سوی مغز به‌ویژه در ناحیه‌های کمربندی خلفی فعال می‌سازد. در میان شرکت‌کنندگان ناشنوا بازه‌ی فعال‌سازی‌های [ناحیه‌های] شنوایی بسا فراخ‌تر از بازه‌ای است که در میان شرکت‌کنندگان با شنوایی عادی مشاهده شده است که احتمالا به دلیل دگرسانی‌های نرمش‌پذیری ناشی از محرومیت حسی پدید می‌آید. این نکته پرسشی به ذهن می‌آورد، ناظر بر این‌که آیا فعال‌سازی ناحیه‌های شنوایی به واسطه‌ی محرک‌های لرزه‌ای-بساوشی سرراست است یا به واسطه‌ی پرتابه‌هایی از سوی ناحیه‌های حسی‌پیکری میسر می‌شود.

کایتانو و ژوسماکی به کمک مغزنگاری مغناطیسی (مِگ) موفق شدند بازه‌ی زمانی فعال‌سازی‌های لرزه‌ای-بساوشی را دنبال و ثبت کنند. این پژوهش‌گران محرک‌هایی لرزه‌ای-بساوشی با بسامد ۲۰۰ هرتز به نک انگشتان شرکت‌کنندگانی با شنوایی عادی منتقل کردند. واکنش اولیه در قشر حسی‌پیکری مشاهده شد که به نقطه‌ی اوجی برابر با ۶۰ میلی‌ثانیه می‌رسید؛ سپس واکنش‌های ناپایدار در قشرهای شنوایی و حسی‌پیکری ثانویه بین ۱۰۰ تا ۲۰۰ میلی‌ثانیه پدید آمد؛ سرانجام، پاسخی پایدار، بین ۲۰۰ تا ۷۰۰ میلی‌ثانیه، در قشر شنوایی نمودار شد. گرچه همه‌ی این مطالعات به کمک محرک تک‌حسی پیش برده شده است، ولیک در کنار هم، می‌توان از یافته‌هاشان نتیجه گرفت که احتمالا سازوکاری برای درآمیزش محرک شنوایی-بساوشی در کار است، سازوکاری سلسله‌مراتبی که در هم‌گرایی تدریجی مجراهای شنوایی و حسی‌پیکری دخالت دارد. گویا یکی از ناحیه‌های اصلی هم‌گرایی حسی در قشر مخی در زیرمجموعه‌های خلفی پارکمربند شنوایی و شیار گیجگاهی فوقانی قرار دارد (نـ. کـ. تصویر ۲).

تصویر ۲. نمایی از درز سهمی جمجمه‌ی مغز انسان به‌همراه پودمان‌ها و مجراهای دخیل در ادراک چندحسی موسیقی.

دریافت چندحسی تمبر/تأثیرهای دیداری‌حرکتی

سلدانیا و روزن‌بلوم به شرکت‌کنندگان طرحشان نمونه‌هایی دیداری-شنیداری از صدای ویولن‌سل عرضه کردند که در خلالش نمودهایی مختلف از آرشه‌کشی و زخمه‌زنی به حواس مختلف منتقل می‌شد. برای نمونه، محرکی چندحسی عرضه می‌شد که در لایه‌ی شنیداری صدای زخمه‌زدن به‌روشنی دریافته می‌شد و در لایه‌ی دیداری حرکت آرشه‌کشی نمایش داده می‌شد. داوری‌های افراد شرکت‌کننده در این طرح‌، درست همانند «پدیده‌ی مک‌گرک» که طرح یادشده بر مبنایش پیش برده می‌شد، زیر تأثیر داده‌های دیدنی دست‌کاری می‌شد. نمونه‌اش صداهای زخمه‌زنی، وقتی با تصاویر آرشه‌کشی پخش می‌شد، به‌سان نوای آرشه شنیده می‌شد. نویسندگان نتیجه‌ی کار را با توجه به برانگیزش خودکار حرکتی درونی سنجیدند، با این ملاحظه که این برانگیزش به سبب داده‌های شنیداری و دیداری پیدا می‌شود. همانند توضیحی که در مورد تشخیص درجات خوانده‌شده ایراد می‌شود، تحریک حرکتی درونی نیز ممکن است الگویی برای پیش‌بینی‌گری کنش فراهم بیاورد، الگویی که با بازنمودهای دیداری کامل می‌شود. برون‌داد الگوی پیش‌بینی‌گر احتمالا در شیار گیجگاهی فوقانی با درون‌داد شنیداری درهم می‌آمیزد. مطالعات چندحسی تصویربرداری با اف‌ام‌آرآی روی موضوع گفتار نیز هم‌سو با همین نتیجه‌ها نشان می‌دهد که در این بحث پای شیار گیجگاهی فوقانی و شکنج گیجگاهی فوقانی درمیان است. شواهد مشابه دیگری به کمک ابزار چندحسی تحصیل شده است و می‌توان نتیجه گرفت که وسعت فعال‌سازی شیار گیجگاهی فوقانی با قانون تأثیرگذاری واژگون مطابقت دارد.

تأثیرهای حسی‌پیکری

پژوهش‌گران زیادی با استفاده از محرک‌های لرزه‌ای- بساوشی روی مسئله‌ی توانایی انسان در تمیز دادن تمبر متمرکز شده‌اند. روسو، امیرنت، و فلس دریافته‌اند که مشاهده‌گران شنوا و ناشنوا به‌دقت می‌توانند تمبر سازها را صرفا به کمک داده‌های لرزه‌ای-بساوشی تشخیص بدهند. در ضمن، این شرکت‌کنندگان ناشنوا و شنوا حتی می‌توانستند تمبرهای ترکیبی را با توجه به پوش طیفی (طیف‌نمای صوت) تشخیص بدهند. در خلال آزمایش‌ها، این توانایی با دخالت انواع متغیرهای کنترل همچنان استوار ماند تا کاملا روشن شود که شرکت‌کنندگان هیچ داده‌های شنیداری پس‌مانده‌ای از مجاری‌های دیگر دریافت نمی‌کنند. روسو و همکاران نتیجه گرفته‌اند که تشخیص تمبر مستلزم درآمیزش داده‌های طیفی در سطح قشر مخی است، به این ترتیب که این داده‌ها از پالایه‌ی گیرنده‌های مکانیکی حساس به بسامدها گذر کرده باشند. چهار مجرای شناخته‌شده به بساوش پاسخ می‌دهند که هرکدامشان بازه‌ی مشخصی از طیف بسامدها را پوشش می‌دهند. به‌این‌ترتیب گیرنده‌های مکانیکی با همیاری هم هندسه‌ی طیف صوت را شکل می‌بخشند، به همان ترتیبی که در مورد امواج صوتی در دستگاه شنوایی رخ می‌گیرد. دو تا از این مجاری کافی است تا نوسانات طیفی رمزنگاری شود. مطالعه‌ای اخیرتر نشان داده است که مشارکت‌کنندگان ناشنوا می‌توانند واکه‌های آوازی را از هم تمیز بدهند و میزان نوسانات طیفی در بین مجاری‌ها پیش‌بینی‌گر ضریب افتراق آن‌هاست.

افزون بر تأثیر تحریک لرزه‌ای-بساوشی روی دریافت غیرمستقیم تمبر صوتی، چنین می‌نماید که چنین محرک‌هایی، در جریان اجرا، داده‌های ارزنده‌ای برای اجراکنندگان موسیقی به ارمغان می‌آورد. نمونه‌اش طنین سیم‌های پیانوست که در همان بدو بساوش کلاویه‌ها احساس می‌شود. آستانه‌های تشخیص لرزش در شرایط طبیعی نواختن و اموری چون لمس کلاویه و همزمانی صدا با بسامدی مشابه پایین می‌آید. احتمالا جای شگفتی هم نیست که درک کیفیت صدا در ذهن نوازنده همواره متأثر از طنین ساز انگاشته شده است، طنینی که به سبب بساویدن کلاویه‌ها دریافته می‌شود.

تا امروز هیچ مطالعه‌ی عصب‌شناختی به دریافت شنیداری-بساوشی تمبر صوتی تخصیص نیافته است. بااین‌همه چنین به گمان می‌رسد که این توانایی به پرتابه‌های مستقیم قشر حسی‌پیکری رو به ناحیه‌های کمربندی خلفی بستگی دارد (نـ. کـ. بخش بالای تصویر ۱). این پرتابه‌های مستقیم به احتمال زیاد سویایی‌های راست دارند، چراکه غشای میلین در قشر شنوایی نیم‌سپهر راست مغز نازک‌تر است و همین زمینه‌ای است برای پیوند بهتر امواج با بسامدهای مختلف و فراهم آمدن توانایی تحلیل طیفی.

درک چندحسی ریتم/تأثیرهای دیداری‌حرکتی

ریتم دربردارنده‌ی الگوهای وزن‌دار و گروه‌های صوتی است که بر مبنای شدت و دیرایی گرد هم می‌نشینند. گویا تأثیراتی دیداری کشف شده که بر توانایی ما در دنبال کردن ریتم و همین‌طور در پی‌گیری ابعاد سطح‌پایین‌تر مؤثر در شکل‌گیری ریتم (همچون بلندی و دیرایی صدا) اثر می‌گذارد. ازآنجاکه برای کوبه‌ای‌نوازان این امکان وجود ندارد که شدت و دیرایی صداهای نواخته را به‌طور مستقل از هم اداره کنند، برای شکل دادن به این وجه از صدا، از حالت‌های نوازندگی بهره می‌جویند. روزن‌بلوم و فاولر دست‌زدن‌های آدم‌ها را با شدت‌های مختلفی ضبط کردند. سپس تصاویری با این دست‌زدن‌ها همراه کردند که برخی‌شان مقارن و موزون با تصاویر بود و برخی چنین نبود؛ و این محرک‌ها را به شرکت‌کنندگان عرضه کردند. گرچه از شرکت‌کنندگان خواسته شده بود تا شدت و بلندی صداها را بر مبنای آنچه می‌شنوند، تعیین کنند، ولیک داده‌های دیداری پیش رویشان تأثیری شگرف بر داوری‌هاشان درباره‌ی بلندی صداها می‌گذاشت.

شوتس و همکاران نشان داده‌اند که اشارات و حالات بیان‌گری بر دیرایی نت اجراشده تأثیر می‌گذارد. آن‌ها در مطالعه‌ی ابتدایی‌شان از نسخه‌هایی ضبط‌شده از صداهای «کوتاه» و «کشیده»ی ماریمبا استفاده کردند. محرک‌های دیداری و شنیداری به ترتیبی با هم درآمیخته شد تا نمونه‌هایی از صدا-تصویرهای موزون و ناموزون فراهم آید. سپس این نمونه‌ها برای شرکت‌کنندگان پخش و از آن‌ها خواسته شد تا دیرایی نواها را صرفا با توجه به اصوات شنیده تخمین بزنند. گرچه محتوای شنیداری نمونه‌ها هیچ تأثیری بر تخمین دیرایی‌ها نداشت، ولیک تصاویر بر درک دیرایی تأثیر می‌گذاشت، به ترتیبی که اشارات و حالات بیان‌گرانه‌ی شدید نوازندگان در ویدیوها سبب می‌شد تا نت‌ها کشیده‌تر و حالات کوتاه‌تر مایه‌ی این می‌شد که نت‌ها کوتاه‌تر دریافته شود. حتی هنگامی‌که محتوای دیداری به‌صورت نورهای نقطه‌ای نمایش داده می‌شد، این تأثیر بر سر جایش برقرار بود و همین نشان می‌دهد که جلوه‌ی موردنظر بر مبنای پویایی‌های حرکت دیدنی در جهان بیرون میسر می‌شود.

پیش‌تر نیز چنین انگاشته می‌شده است که  توانایی هم‌گام‌سازی با ساختارهای وزنیِ دریافته‌شده از تصاویر، فروتر از هم‌گام‌سازی با صداهای شنیداری با ویژگی‌های زمانی مشابه است. وانگهی چنانچه ریتم‌های دیدنی به واسطه‌ی محرک‌هایی پیوسته، همچون توپ در حال بالا و پایین رفتن عرضه شود، این فراتری یا مهتری تقریبا به‌کل از دست می‌رود. مطالعات تصویربرداری نشان داده است که فعال‌سازی پوتامن – ناحیه‌ای حیاتی در زمان‌شناسی و برنامه‌ریزی حرکت و درک ضرب  – با کارهای ناظر بر هم‌گام‌سازی‌های حسی‌حرکتی توازی‌هایی دارد. به‌طور مشخص، محرک‌های دیداری متداوم به فعال‌سازی‌های بیشتر پوتامن می‌انجامد تا درخش‌های برق‌آسا و گذرا، به‌گونه‌ای که این میزان فعال‌سازی به سطحی مشابه با محرک‌های کوتاه شنیداری نزدیک بود. این یافته نشان می‌دهد که توانایی هم‌گام‌سازی یا هم‌گام شدن با ساختارهای وزنی صرفا به داده‌های حسی موکول نیست، بل به طبیعت نحوه‌ی عرضه شدن محرک‌ها نیز بستگی دارد. درحالی‌که رخدادهای گسسته با محرک‌های صوتی حاصلی بهینه‌تر به بار می‌آورند، رخدادهای پیوسته با محرک‌های تصویری به پیامدهای پربارتری می‌انجامند. برخی از شواهد گواه است که ناشنوایان در تعقیب محرک‌های دیداری برتری‌هایی دارند. این پدیده‌ی آخر احتمالا مرهون تغیرات نرمش‌پذیری ناشی از محرومیت حسی و تجربه‌های درازدامن آوازخوانی است. با ارجاع به تصویر ۱ می‌توان مشاهده کرد که نیروی درون‌داد دیداری مستقیم به سوی مجاری شنوایی-حرکتی احتمالا در مغز ناشنوایان تشدید می‌شود.

در مطالعات پرشماری از الکترومغزنگاری برای ارزیابی پی‌گرد عصبی ضرب بهره جسته شده است. هنگامی‌که بسامد ضرب در محدوده‌ی حرکت‌های انسانی (یعنی در حدود ۱ تا ۴ هرتز) باشد، ردیف‌هایی سترگ در قشر مخی بسامد موردنظر را پی‌گیری می‌کنند. این نوسان‌های عصبی حتی در حین ایست موقتی ضرب نیز ادامه می‌یابند. چنانچه محرک ریتمی ادامه بیابد، بسته به هنگامه‌ی آغاز دوباره‌اش، نوسان‌های عصبی یا تشدید یا تخفیف می‌یابند. وقتی‌که محرک ریتمی مسبب انتظار برای ضرب (سکوت) می‌شود، نیروی نوسان تشدید و وقتی ضرب بر سر جایش نواخته می‌شود (سرضرب)، عامل تخفیف [در نوسان‌یابی عصبی] خواهد شد. وانگهی، زمانی‌که ضرب در قالب رخدادی شنیداری-دیداری ادامه می‌یابد، هیچ تعدیلی نیرویی در نوسان‌های عصبی مشاهده نمی‌شود. این یافته‌ها نشان می‌دهد که درون‌دادهای چندحسی، ازمنظر پی‌گیری [یا تعقیب محرک حسی] با درون‌دادهای شنیداری یک‌سان نیست. یکی از تفسیرهای ممکن می‌گوید درون‌داد چندحسی «بسیار وثیق یا خروشان» است و منابع زیادی لازم است تا مستقل از نوسان‌های ناشی از دریافت ضرب از محرک شنیداری محض پردازش شود. این الگوی عصب‌شناختی به یاری‌مان می‌آید تا یافته‌های برگرفته از مطالعات ناظر بر هم‌گام‌سازی حسی‌حرکتی را بهتر شرح بدهیم، همان مطالعات که در جریانش، پژوهش‌گران با قیاس ریتم‌های چندحسی و ریتم‌های شنیدرای محض به نشانه‌هایی دال بر هم‌گام‌سازی‌های فوقانی دست یافته‌اند.

هرچند تأثیرهای دیداری بر دریافت ریتم بسیار نیرومند است، باید به توجه داشت که بسیاری از شنوندگان به‌طور ارادی انتخاب می‌کنند تا در شرایط خاص، چشمان خود را ببندند. یکی از خوانش‌های ممکن این پدیده چنین خواهد بود که داده‌های دیدنی گاه بس سردرگم‌کننده هستند. پژوهش‌گران در آزمایشی مشتمل بر داوری درباره‌ی ترتیب زمانی محرک‌ها با پیچیدگی‌های متنوع، دریافتند که هرچه ناهم‌گامی‌های زمانی به آستانه‌های تمایزگذاری نزدیک‌تر می‌شد، فعال‌سازی در نواحی بینایی قشری نیز به‌طور فزاینده‌ای کاهش می‌یافت. شاید این یافته را از چشم‌انداز قاعده‌ی تأثیرگذاری واژگون بهتر بتوان درک کرد، به این اعتبار که کاهش فعال‌سازی قشر بینایی، در جریان کاری که به دستگاه شنوایی مربوط است، همچون مانعی در برابر درآمیزش داده‌های احتمالا گمراه‌کننده‌ی دریافتی از سامانه‌ی بینایی قرار می‌گیرد.

تأثیرهای حسی‌پیکری

شواهدی در دست داریم که نشان می‌دهد دستگاه حسی‌پیکری در ادراک و دریافت ریتم نقش‌هایی دارد. ترِنْچِنْت و همکاران از شرکت‌کنندگان شنوا و ناشنوا خواستند تا حرکت‌های خود را با ضرب‌های لرزه‌ای-بساوشی – که با استفاده از لرزانک‌ها منتقل می‌شد – هم‌گام کنند. از شرکت‌کنندگان شنوا در ضمن خواسته شد تا با همان ضرب خود را وفق بدهند، درحالی‌که این بار ضرب از راه دستگاه شنوایی منتقل می‌شد، بدون هیچ محرک لرزه‌ای-بساوشی. نتیجه‌ها نشان می‌داد که بیشتر شرکت‌کنندگان می‌توانستند با ضرب‌های لرزه‌ای-بساوشی هم‌گام شوند و هیچ تفاوت معناداری بین دو گروه پیدا نشد. وانگه، پاسخ شنوایان در کار هم‌گامی‌یابی با محرک شنیداری بهتر بود تا در کار هم‌گام‌شدن با محرک لرزه‌ای-بساوشی.

مطالعات دیگری نیز نشان داده است که می‌توان با ضرب‌هایی که به کمک تحریک لرزه‌ای-بساوشی به نت انگشتان دست یا انگشتان پا یا حتی پشت تن منتقل می‌شود، به‌صورت حسی‌حرکتی هم‌گام شد. یافته‌ها نشان می‌دهد که هم‌گام‌سازی با ضرب‌های لرزه‌ای-بساوشی ساده (مطابق با میزانه‌شمار) با همان دقت هم‌گامی‌یابی با ضرب شنیداری ممکن است، اما این امر مشروط است. برای نمونه، مولر و همکارانش تقارن‌هایی در آزمایش روی نک انگشتان دست یافتند، اما همین امر در مورد انگشتان پا صدق نمی‌کرد؛ امیرنت و همکاران نیز تقارن‌هایی بر پشت تن یافتند، اما صرفا هنگامی این تقارن آشکار می‌شد که سهم بزرگی از پشت تحریک شود. احتمالا برهم‌افزایش مکانی (مشتمل بر درآمیزش داده‌های دریافت‌گرهای متعدد) مسب بهینگی پاسخ‌های حسی‌پیکری به داده‌های ریتمی می‌شود. امیرنت و همکاران در ضمن شرایطی شنیداری-بساوشی پی ریختند تا درآمیزش چندحسی را بیشتر بکاوند. نتایج نشان می‌داد که هم‌گامی‌یابی حسی‌حرکتی با صدا به‌شکی منسجم با محرک شنیداری-بساویدنی هم‌سان است و موضوع ارتباطی با اندازه‌ی ناحیه‌های تماس ندارد. ای‌بسا که بتوان این نتیجه‌ها را با عنایت به احتمال بیشینه‌ی الگوی تخمین بازخوانی کرد، به این معنا که داده‌های شنیدنی بازنمایان‌گر پیامی موثق و مقاوم در برابر درآمیزش با داده‌های ناموثق‌تر حسی (لرزه‌ای-بساوشی) خواهد بود.

در ضمن حاصل کار امیرنت و همکارانش را می‌توان با توجه به الگوهای حسی‌حرکتیِ ادراک فهم کرد (نـ. کـ. پاره‌ی سوم تصویر ۱). الگوی شبیه‌سازی کنشِ ادراک شنیداری بر این نکته تأکید دارد که توانایی ما در تشخیص ضرب در ریتم‌ها بر مبنای شبیه‌سازی درونی کنش متناوب حرکتی نضج می‌گیرد. فرضیه‌ی ثانویه‌ای نیز برای این الگو پیش نهاده شده است که می‌گوید ادراک ضرب از بَرِ سازوکارهای ضروری برای برقراری ارتباط گفتاری فرگشت یافته است،چراکه هر دوشان مستلزم زمان‌بندی متناوب و درآمیزش داده‌های حرکتی و شنیدنی هستند. این فرضیه تا اندازه‌ای بر مشاهده‌ی هم‌گامی‌یابی با ضرب تکیه دارد، مشاهده‌ای که نشان می‌دهد هم‌گام‌سازی با ضرب به‌طور اولا در جانداران مجهز به نوعی از گفتار پیدا می‌شود که ضرورتا هم بان انسان خویشاوند  نیستند(همچون توتی و فیل) و از آن مهم‌تر که این امر در میان همه‌ی خویشاوندان نخستی انسان مشاهده‌پذیر نیست.

ازآنجاکه ارتباط گفتاری به‌طور اولا به‌واسطه‌ی تعدیل یا پودمانگی شنیداری ممکن می‌شود، بدیهی است که سازوکارهای زمان‌بندی‌های شناختی و عصب‌شناختی از پیش ترجیحی به محرک‌های صوتی نشان بدهند. بار دیگر باید گفت که این پیش‌گویی بر شواهدی تکیه دارد که نشان می‌دهد هم‌گام‌شدگی حسی‌حرکتی با محرک شنیداری بر هم‌گامی‌یابی‌های حسی‌حرکتی با محرک دیداری یا حتی لرزه‌ای-بساوشی می‌چربد [بخوانید اولویت دارد]. در آزمایش خودم، پژوهشی زیر هدایت شان گیلمور در جریان است که بناست با استفاده از الکترومغزنگاری و تحلیل منبع کاوش‌گری نشان بدهد سنجش اندازه‌ی تعقیب عصبی ضرب تا چه اندازه به کمک محرک شنیداری محض، لرزه‌ای-بساوشی، شنیداری-لرزه‌ای-بساوشی ممکن است. ما با توجه به نتیجه‌های رفتارشناختی کار امیرنت و همکاران چنین پیش‌فرض گرفته‌ایم که احتمالا تعقیب عصبی در ناحیه‌های مربوط به برنامه‌ریزی حرکتی در پاسخ به محرک لرزه‌ای-بساوشی از همه سست‌تر است و قاعدتا هیچ تفاوتی در شرایط شنیداری و شنیداری-بساوشی وجود نخواهد داشت.

تأثیرهای حرکت‌بنیان

حرکت‌های ارادی و غیرارادی سر به تحریک دستگاه بطنی (وستیبولار) می‌انجامد. با توجه به این‌که آدم‌ها به‌طور ارادی و فعالانه در حال گوش دادن به موسیقی خود را تکان می‌دهند، چنین به نظر می‌رسد که تحریک بطنی از بدیهی‌ترین تحریک‌ها در جریان موسیقی‌شنوی باشد. افزون‌براین، نظر به این‌که قشر بطنی به گستردگی با دیگر دستگاه‌های حسی پیوند دارد، بدیهی است گمان ببریم که در تجربه‌ی موسیقی‌شنوی فرصت‌های پرشماری برای درآمیزش چندحسی پدید بیاید که در جریانش پای دستگاه بطنی درمیان باشد. فیلیپس-سیلور و ترِینر به میزان نقش دستگاه بطنی در ریتم چندحسی پرداخته‌اند و این امر را با استفاده از ریتم‌های شنیداری مبهم سنجیده‌اند. این ریتم‌ها دوضربی (همچون مارش) یا سه‌ضربی (همچون والس) بوده‌اند و برای نوزادان پخش می‌شده‌اند، درحالی‌که بر سر ضرب دوم یا سوم این نوزادان تکان داده می‌شدند. پژوهش‌گران این طرح بر مبنای ترجیح نوزدان در گرداندن سرشان می‌توانستند نتیجه بگیرند که نوزادان در حین بالا و پایین شدن بر سر ضرب‌های دوم، ریتم‌های مبهم دوضربی را رمزنگاری می‌کرده‌اند و به هنگام بالا و پایین شدن بر سر ضرب‌های سوم، ریتم‌های سه‌ضربی را به قالب رمزگان عصبی درمی‌آورده‌اند. آزمایش دیگری در جریان همین مطالعه نشان داد که بستن چشمان نوزادان ممکن است به تخفیف این امر بینجامد، اما بازدارنده‌اش نیست. از همین امر می‌توان تصدیق کرد که این نمونه از درآمیزش چندحسی ریتم به ادراک دیداری بستگی ندارد.

دو مطالعه‌ی دیگر ترینر و همکاران تصدیقی است بر تأثیرگذاری درآمیزش شنوایی-بطنی در موسیقی‌شنوی تا بزرگ‌سالی ادامه می‌یابد. در مطالعه‌ای به بزرگ‌سالان تعلیم داده شد تا با ریتم‌های دو و سه‌ضربی بجهند، به این ترتیب که ریتم‌های پخش‌شده مبهم شده بوده‌اند. آزمایش شنوش بعدی نشان داد که بزرگ‌سالان نسخه‌ی شنیداری آن الگوی ریتمی را که ضرب‌های تأکیدی‌اش با تجربه‌ی حرکت‌هاشان هم‌خوان بود، بیش از نسخه‌ای که تأکیدهایش ناهماهنگ بود، مشابه همان ریتم اولیه یافتند. ازآنجاکه این مطالعه با خودحرکت‌گری همراه بود، پژوهش‌گران امکان نداشتند تا دخالت‌های دستگاه دهلیزی و حس عمق‌شناسی را از هم واسازی کنند. بااین‌حال، پژوهش‌گران در مطالعه‌ای متعاقب همین که یاد شد، با استفاده از تحریک گالوانی دستگاه دهلیزی، توانستند شواهدی فراهم آورند که نشان می‌داد داده‌های شنوایی و دهلیزی، در حین دریافت ریتم، در مغز بزرگ‌سالان درهم آمیخته می‌شود، حتی وقتی‌که خبری از حرکت نیست. در مطالعه‌ای روی تک‌پی‌یاخته‌ی الگوهای حیوانی آشکار شد که قشر آهیانه‌ای پسینی احتمالا مکانی اصلی برای درآمیزش داده‌های چندحسی مربوط به دستگاه دهلیزی است. از قضا این ناحیه با دیگر ناحیه‌های قشری مظنون در پردازش چندحسی (یعنی شکنج گیجگاهی فوقانی، ناحیه‌ی کمربندی  شنوایی، و ناحیه‌های گیجگاهی میانی) مجاورت دارد.

پژوهش‌گران دیگر نیز به درآمیزش چندحسی ناشی از جنبیدن با ضرب و پیامدهایش اندیشیده‌اند. مَنینگ و شوتس از شرکت‌کنندگان طرحشان خواستند تا با ضرب‌های متقارن حرکت کنند، یا صرفا به آن‌ها گوش بدهند. صدایی در پایان اجرا و سپس سکوتی می‌آمد و از شرکت‌کننده خواسته می‌شد تا تشخیص بدهد که آیا این صدای پایانی با توالی ریتمی سازگار بوده یا خیر! دقت تشخیصی در این کار در موارد همراه با حرکت، به‌مراتب بیشتر بود. در مطالعه‌ای تکمیلی، روشن‌تر شد که این دقت در میان کوبه‌ای‌نوازان بسیار بیش‌تر از نوازندگان دیگر است. هیچ دور از ذهن نیست که پیام‌های چندحسی منتج از جنبیدن به همراه ضرب به تعقیب عصبی شدیدتر ضرب بینجامد. مطالعات الکترومغزنگاری ناظر بر ریتم‌های مبهم نیز نشان داده است که تعقیب عصبی ضرب هنگامی شدیدتر می‌شود که شرکت‌کنندگان یاد می‌گیرند تا با ریتم، به‌شکلی حرکت کنند که قالب دو یا سه‌ضربی ریتم بازنمایی شود. افزون‌براین تعقیب عصبی و ضریب‌هایش با بسامدهای متناظر با وزن حرکت هم‌سان یافته شده است.

فهرست منابع

Humphries, C., Liebenthal, E., & Binder, J. R. (2010). Tonotopic organization of human auditory cortex. NeuroImage, 50(3), 1202–1211.

Zatorre, R. J. (2002). Auditory cortex. In V. S. (Ed.), Encyclopedia of the Human Brain (pp. 289–301). Amsterdam: Elsevier.

Froud, K. E.-P. (2015). Type II spiral ganglion afferent neurons drive medial olivocochlear reflex suppression of the cochlear amplifier. Nature Communications, 6(1), 7115.

Amunts, K. M. (2012). Auditory system. In J. K. (Eds.), The human nervous system (3rd ed.) (pp. 1270–1300). London: Elsevier.

Nayagam, B. A. (2011). The spiral ganglion: Connecting the peripheral and central auditory systems. Hearing Research , 278(1–2), 2–20.

Horn, A. K. (2006). The reticular formation. Progress in Brain Research, 151, 127–155.

Huffman, R. F. (1990). The descending auditory pathway and acousticomotor systems: Connections with the inferior colliculus. Brain Research Reviews, 15(3), 295–323.

Rossignol, S. &. (1976). Audio-spinal influence in man studied by the H-reflex and its possible role on rhythmic movements synchronized to sound. Electroencephalography and Clinical Neurophysiology, 41(1), 83–92.

Grothe, B. (2000). The evolution of temporal processing in the medial superior olive, an auditory brainstem structure. Progress in Neurobiology, 61(6), 581–610.

Tollin, D. J. (2003). The lateral superior olive: A functional role in sound source localization. Neuroscientist, 9(2), 127–143.

Baumann, S. G. (2011)). Orthogonal representation of sound dimensions in the primate midbrain. Nature Neuroscience , 14(4), 423–425.

Bajo, V. M. (2010). The descending corticocollicular pathway mediates learning-induced auditory plasticity. Nature Neuroscience, 13(2), 253–260.

Suga, N. &. (2003). Multiparametric corticofugal modulation and plasticity in the auditory system. Nature Reviews Neuroscience, 4(10), 783–794.

Langers, D. R. (2014). Assessment of tonotopically organised subdivisions in human auditory cortex using volumetric and surface-based cortical alignments. Human Brain Mapping, 35(4), 1544–1561.

Norman-Haignere, S. K. (2013). Cortical pitch regions in humans respond primarily to resolved harmonics and are located in specific tonotopic regions of anterior auditory cortex. Journal of Neuroscience, 33(50), 19451–19469.

Da Costa, S. v. (2011). Human primary auditory cortex follows the shape of Heschl’s gyrus. Journal of Neuroscience, 31(40), 14067–14075.

Humphries, C. L. (2010). Tonotopic organization of human auditory cortex. NeuroImage, 50(3), 1202–1211.

Warren, J. D. (2003). Separating pitch chroma and pitch height in the human brain. Proceedings of the National Academy of Sciences, 100, pp. 10038–10042.

Schonwiesner, M. &. (2009). Spectro-temporal modulation transfer function of single voxels in the human auditory cortex measured with high-resolution fMRI. Proceedings of the National Academy of Sciences, 106, pp. 14611–14616.

Griffiths, T. D. (2004). What is an auditory object? Nature Reviews Neuroscience, 5(11), 887–892.

Zatorre, R. J. (2012). Cortical processing of music. In T. O. D. Poeppel, The human auditory cortex: Springer handbook of auditory research (Vol. 43) (pp. 261–294). New York: Springer.

Griffiths, T. D., & Warren, J. D. (2002). The planum temporale as a computational hub. Trends in Neurosciences, 25(7), 348–353.

Koelsch, S. (2011). Toward a neural basis of music perception: A review and updated model. Frontiers in Psychology, 2, 110.

Cammoun, L. T. (2015). Intrahemispheric cortico-cortical connections of the human auditory cortex. Brain Structure & Function, 220(6), 3537–3553.

Janata, P. (2015). Neural basis of music perception. In G. G. (Eds.), Handbook of clinical neurology: The human auditory system (Vol. 129) (pp. 187–205). Amsterdam: Elsevier .

Peretz, I. &. (2005). Brain organization for music processing. Annual Review of Psychology, 56, 89–114.

Lee, Y. S. (2011). Investigation of melodic contour processing in the brain using multivariate pattern-based fMRI. NeuroImage, 57(1), 293–300.

Patterson, R. D. (2002). The processing of temporal pitch and melody information in auditory cortex. Neuron, 36(4), 767–776.

Schindler, A. H. (2013). Coding of melodic gestalt in human auditory cortex. Cerebral Cortex, 23(12), 2987–2993.

Tramo, M. J. (2002). Functional role of auditory cortex in frequency processing and pitch perception. Journal of Neurophysiology, 87(1), 122–139.

Klein, M. E. (2015). Representations of invariant musical categories are decodable by pattern analysis of locally distributed BOLD responses in superior temporal and intraparietal sulci. Cerebral Cortex, 25(7), 1947–1957.

Warren, J. D. (2005). Analysis of the spectral envelope of sounds by the human brain. NeuroImage, 24(4), 1052–1057.

Klein, M. E., & Zatorre, R. J. (2011). A role for the right superior temporal sulcus in categorical perception of musical chords. Neuropsychologia, 49(5), 878–887.

Warren, J. D. (2003). Separating pitch chroma and pitch height in the human brain. Proceedings of the National Academy of Sciences, 100, pp. 10038–10042.

Beauchamp, M. S. (2004). Unraveling multisensory integration: Patchy organization within human STS multisensory cortex. Nature Neuroscience.

Beauchamp, M. S. (2010). fMRI-guided transcranial magnetic stimulation reveals that the superior temporal sulcus is a cortical locus of the McGurk effect. Journal of Neuroscience, 30(7), 2414–2417.

Beauchamp, M. S. (2008). Touch, sound and vision in human superior temporal sulcus. NeuroImage, 41(3), 1011–1020.

Andoh, J. &. (2011). Interhemispheric connectivity influences the degree of modulation of TMS-induced effects during auditory processing. Frontiers in Psychology, 2, 161.

Cha, K. Z. (2016). Frequency selectivity of voxel-by-voxel functional connectivity in human auditory cortex. Cerebral Cortex, 26(1), 211–224.

Perani, D. (2012). Functional and structural connectivity for language and music processing at birth. Rendiconti Lincei, 23(3), 305–314.

Santoro, R. M. (2014). Encoding of natural sounds at multiple spectral and temporal resolutions in the human auditory cortex. PLoS. Computational Biology, 10(1), e1003412.

Stewart, L. O. (2008). fMRI evidence for a cortical hierarchy of pitch pattern processing. PLoS ONE, 3(1), e1470.

Tervaniemi, M. M. (2000). Lateralized automatic auditory processing of phonetic versus musical information: A PET study. Human Brain Mapping, 10(2), 74–79.

Warrier, C. W. (2009). Relating structure to function: Heschl’s gyrus and acoustic processing. Journal of Neuroscience, 29(1), 61–69.

Brechmann, A. &. (2005). Hemispheric shifts of sound representation in auditory cortex with conceptual listening. Cerebral Cortex, 15(5), 578–587.

Hyde, K. L. (2008). Evidence for the role of the right auditory cortex in fine pitch resolution. Neuropsychologia, 46(2), 632–639.

Schön, D. G. (2005). Musical and linguistic processing in song perception. Annals of the New York Academy of Sciences, 1060(1), 71–81.

Ohnishi, T. M. (2001). Functional anatomy of musical perception in musicians. Cerebral Cortex, 11(8), 754–760.

Proverbio, A. M. (2016). Brain processing of consonance/dissonance in musicians and controls: A hemispheric asymmetry revisited. European Journal of Neuroscience, 44(6), 2340–2356.

Wessinger, C. M. (2001). Hierarchical organization of the human auditory cortex revealed by functional magnetic resonance imaging. Journal of Cognitive Neuroscience, 13(1), 1–7.

de Heer, W. A. (2017). The hierarchical cortical organization of human speech processing. Journal of Neuroscience, 37(27), 6539–6557.

Bianco, R. N.-G. (2016). Neural networks for harmonic structure in music perception and action. NeuroImage, 142, 454–464.

Janata, P. B. (2002). The cortical topography of tonal structures underlying Western music. Science, 293(5539), 2425–2430.

Koelsch, S. G. (2002). Bach speaks: A cortical “language-network” serves the processing of music. NeuroImage, 17(2), 956–966.

Koelsch, S. F. (2005). Adults and children processing music: An fMRI study. NeuroImage, 25(4), 1068–1076.

Maess, B. K. (2001). Musical syntax is processed in Broca’s area: An MEG study. Nature Neuroscience, 4(5), 540–545.

Seger, C. A. (2013). Corticostriatal contributions to musical expectancy perception. Journal of Cognitive Neuroscience, 25(7), 1062–1077.

Tillmann, B. J. (2003). Activation of the inferior frontal cortex in musical priming. Annals of the New York Academy of Sciences, 999, 209–211.

Koelsch, S. (2006). Significance of Broca’s area and ventral premotor cortex for music-syntactic processing. Cortex, 42(4), 518–520.

Lappe, C. L. (2016). Differential processing of melodic, rhythmic and simple tone deviations in musicians: An MEG study. NeuroImage, 124, 898–905.

Lappe, C. S. (2013). Rhythmic and melodic deviations in musical sequences recruit different cortical areas for mismatch detection. Frontiers in Human Neuroscience, 7, 260.

Belin, P. &. (2000). “What,” “where” and “how” in auditory cortex. Nature Neuroscience, 3(10), 965–966.

Bizley, J. K. (2013). The what, where and how of auditory-object perception. Nature Reviews Neuroscience, 14(10), 693–707.

Hickok, G. &. (2007). The cortical organization of speech processing. Nature Reviews Neuroscience, 8(5), 393–402.

Rauschecker, J. P. (2009). Maps and streams in the auditory cortex: Nonhuman primates illuminate human speech processing. Nature Neuroscience, 12(6), 718–724.

Kiehl, K. A. (2001). Neural sources involved in auditory target detection and novelty processing: An event-related fMRI study. Psychophysiology, 38(1), 133–142.

Zatorre, R. J. (2004). Sensitivity to auditory object features in human temporal neocortex. Journal of Neuroscience, 24(14), 3637–3642.

Gaab, N. G. (2003). Functional anatomy of pitch memory: An fMRI study with sparse temporal sampling. NeuroImage, 19(4), 1417–1426.

Kaiser, J. R. (2003). Dynamics of gamma-band activity in human magnetoencephalogram during auditory pattern working memory. NeuroImage, 20(2), 816–827.

Plakke, B. &. (2014). Auditory connections and functions of prefrontal cortex. Frontiers in Neuroscience, 8, 199.

Chen, J. L. (2012). Learning to play a melody: An fMRI study examining the formation of auditory-motor associations. NeuroImage, 59(2), 1200–1208.

Foster, N. E. (2013). Common parietal activation in musical mental transformations across pitch and time. NeuroImage, 75, 27–35.

Loui, P. (2015). A dual-stream neuroanatomy of singing. Music Perception, 32(3), 232–241.

Saur, D. K.-S. (2008). Ventral and dorsal pathways for language. Proceedings of the National Academy of Sciences, 105, pp. 18035–18040.

Warren, J. E. (2005). Sounds do-able: Auditory-motor transformations and the posterior temporal plane. Trends in Neurosciences, 28(12), 636–643.

Koelsch, S. S. (2009). Functional architecture of verbal and tonal working memory: An fMRI study. Human Brain Mapping, 30(3), 859–873.

Royal, I. V. (2016). Activation in the right inferior parietal lobule reflects the representation of musical structure beyond simple pitch discrimination. PLoS ONE, 11(5), e0155291.

Schulze, K. Z. (2011). Neuroarchitecture of verbal and tonal working memory in nonmusicians and musicians. Human Brain Mapping, 32(5), 771–783.

Alluri, V. T. (2013). From Vivaldi to Beatles and back: Predicting lateralized brain responses to music. NeuroImage, 83, 627–636.

Zysset, S. H. (2002). The anterior frontomedian cortex and evaluative judgment: An fMRI study. NeuroImage, 15(4), 983–991.

Groussard, M. V. (2010). Musical and verbal semantic memory: Two distinct neural networks? NeuroImage, 49(3), 2764–2773.

Platel, H. B. (2003). Semantic and episodic memory of music are subserved by distinct neural networks. NeuroImage, 20(1), 244–256.

Janata, P. (2009). The neural architecture of music-evoked autobiographical memories. Cerebral Cortex, 19(11), 2579–2594.

Von Der Heide, R. J. (2013). Dissecting the uncinate fasciculus: Disorders, controversies and a hypothesis. Brain, 136(6), 1692–1707.

Alho, K. R. (2014). Stimulus-dependent activations and attention-related modulations in the auditory cortex: A meta-analysis of fMRI studies. Hearing Research, 307, 29–41.

Janata, P. T. (2002). Listening to polyphonic music recruits domain-general attention and working memory circuits. Cognitive, Affective & Behavioral Neuroscience, 2(2), 121–140.

Maidhof, C. &. (2011). Effects of selective attention on syntax processing in music and language. Journal of Cognitive Neuroscience, 23(9), 2252–2267.

Satoh, M. T. (2001). Activated brain regions in musicians during an ensemble: A PET study. Cognitive Brain Research, 12(1), 101–108.

Farrugia, N. J. (2015). Tunes stuck in your brain: The frequency and affective evaluation of involuntary musical imagery correlate with cortical structure. Consciousness and Cognition, 35, 66–77.

Brown, S. &. (2007). Activation of premotor vocal areas during musical discrimination. Brain and Cognition, 63(1), 59–69.

Halpern, A. R. (2004). Behavioral and neural correlates of perceived and imagined musical timbre. Neuropsychologia, 42(9), 1281–1292.

Harris, R. &. (2014). Cerebral activations related to audition-driven performance imagery in professional musicians. PLoS ONE, 9(4), e93681.

Peretz, I. G. (2009). Music lexical networks: The cortical organization of music recognition. Annals of the New York Academy of Sciences, 1169, 256–265.

Zatorre, R. J. (1996). Hearing in the mind’s ear: A PET investigation of musical imagery and perception. Journal of Cognitive Neuroscience, 8(1), 29–46.

Bangert, M. P. (2006). Shared networks for auditory and motor processing in professional pianists: Evidence from fMRI conjunction. NeuroImage, 30(3), 917–926.

D’Ausilio, A. A. (2006). Cross-modal plasticity of the motor cortex while listening to a rehearsed musical piece. European Journal of Neuroscience, 24(3), 955–958.

Harris, R., & De Jong, B. M. (2014). Cerebral activations related to audition-driven performance imagery in professional musicians. PLoS ONE, 9(4), e93681.

Haueisen, J. &. (2001). Involuntary motor activity in pianists evoked by music perception. Journal of Cognitive Neuroscience, 13(6), 786–792.

Baumann, S. K. (2007). A network for audio-motor coordination in skilled pianists and non-musicians. Brain Research, 1161(1), 65–78.

Hasegawa, T. M. (2004). Learned audio-visual cross-modal associations in observed piano playing activate the left planum temporale: An fMRI study. Cognitive Brain Research, 20(3), 510–518.

Lahav, A. S. (2007). Action representation of sound: Audiomotor recognition network while listening to newly acquired actions. Journal of Neuroscience, 27(2), 308–314.

Keller, P. E. (2012). Mental imagery in music performance: Underlying mechanisms and potential benefits. Annals of the New York Academy of Sciences, 1252(1), 206–213.

Maes, P.-J. L. (2014). Action-based effects on music perception. Frontiers in Psychology, 4, 1008.

Novembre, G., & Keller, P. E. (2014). A conceptual review on action-perception coupling in the musicians’ brain: What is it good for? Frontiers in Human Neuroscience, 8, 603.

Schneider, D. M. (2014). A synaptic and circuit basis for corollary discharge in the auditory cortex. Nature, 513(7517), 189–194.

Merchant, H. P. (2013). Interval tuning in the primate medial premotor cortex as a general timing mechanism. Journal of Neuroscience, 33(21), 9082–9096.

Nelson, A. S. (2013). A circuit for motor cortical modulation of auditory cortical activity. Journal of Neuroscience, 33(36), 14342–14353.

Roberts, T. F. (2017). Identification of a motor-to-auditory pathway important for vocal learning. Nature Neuroscience, 20(7), 978–986.

Schneider, D. M. (2015). Motor-related signals in the auditory system for listening and learning. Current Opinion in Neurobiology, 33, 78–84.

Nelson, A. S. (2013). A circuit for motor cortical modulation of auditory cortical activity. Journal of Neuroscience, 33(36), 14342–14353.

Merchant, H. &. (2018). Primate beta oscillations and rhythmic behaviors. Journal of Neural Transmission, 125, 461–470.

Merchant, H. G. (2015). Finding the beat: A neural perspective across humans and non-human primates. Philosophical Transactions of the Royal Society B: Biological Sciences, 370(1664), 20140093.

Fernández-Miranda, J. C. (2015). Asymmetry, connectivity, and segmentation of the arcuate fascicle in the human brain. Brain Structure & Function, 220(3), 1665–1680.

Chen, J. L. (2008a). Listening to musical rhythms recruits motor regions of the brain. Cerebral Cortex, 18(12), 2844–2854.

Chen, J. L. (2006). Interactions between auditory and dorsal premotor cortex during synchronization to musical rhythms. NeuroImage, 32(4), 1771–1781.

Fujioka, T. T. (2012). Internalized Timing of isochronous sounds is represented in neuromagnetic beta oscillations. Journal of Neuroscience, 32(5), 1791–1802.

Grahn, J. A. (2007). Rhythm and beat perception in motor areas of the brain. Journal of Cognitive Neuroscience, 19(5), 893–906.

Grahn, J. A. (2009). Feeling the beat: Premotor and striatal interactions in musicians and nonmusicians during beat perception. Journal of Neuroscience, 29(23), 7540–7548.

Palomar-García, M. Á.-C. (2017). Modulation of functional connectivity in auditory-motor networks in musicians compared with nonmusicians. Cerebral Cortex, 27(5), 2768–2778.

Giovannelli, F. B. (2013). The effect of music on corticospinal excitability is related to the perceived emotion: A transcranial magnetic stimulation study. Cortex, 49(3), 702–710.

Michaelis, K. W. (2014). Passive listening to preferred motor tempo modulates corticospinal excitability. Frontiers in Human Neuroscience, 8, 252.

Stupacher, J. H.-B. (2013). Musical groove modulates motor cortex excitability: A TMS investigation. Brain and Cognition, 82(2), 127–136.

Wilson, E. M. (2002). Musical beat influences corticospinal drive to ankle flexor and extensor muscles in man. International Journal of Psychophysiology, 44(2), 177–184.

Thaut, M. H. (1992). Effect of rhythmic auditory cuing on temporal stride parameters and EMG patterns in normal gait. Neurorehabilitation and Neural Repair, 6(4), 185–190.

D’Ausilio, A., Altenmüller, E., Olivetti Belardinelli, M., & Lotze, M. (2006). Cross-modal plasticity of the motor cortex while listening to a rehearsed musical piece. European Journal of Neuroscience, 24(3), 955–958.

Stupacher, J., Hove, M. J., Novembre, G., Schütz-Bosbach, S., & Keller, P. E. (2013). Musical groove modulates motor cortex excitability: A TMS investigation. Brain and Cognition, 82(2), 127–136.

Fujioka, T., Trainor, L. J., Large, E. W., & Ross, B. (2012). Internalized Timing of isochronous sounds is represented in neuromagnetic beta oscillations. Journal of Neuroscience, 32(5), 1791–1802.

Large, E. W. (2015). Neural networks for beat perception in musical rhythm. Frontiers in Systems Neuroscience, 9, 159.

Large, E. W. (2009). Pulse and meter as neural resonance. Annals of the New York Academy of Sciences, 1169, 46–57.

Ross, B. B. (2017). Sound-making actions lead to immediate plastic changes of neuromagnetic evoked responses and induced β-band oscillations during perception. Journal of Neuroscience, 37(24), 5948–5959.

Chauvigné, L. A. (2014). The neural basis of audiomotor entrainment: An ALE meta-analysis. Frontiers in Human Neuroscience, 8, 776.

Iversen, J. R. (2016). Synchronization and temporal processing. Current Opinion in Behavioral Sciences, 8, 175–180.

Leow, L. A. (2014). Neural mechanisms of rhythm perception: Present findings and future directions. Advances in Experimental Medicine and Biology, 829, 325–338.

Teki, S. G. (2012). A unified model of time perception accounts for duration-based and beat-based timing mechanisms. Frontiers in Integrative Neuroscience, 5, 90.

Koziol, L. F. (2011). Sensory integration, sensory processing, and sensory modulation disorders: Putative functional neuroanatomic underpinnings. Cerebellum, 10(4), 770–792.

Schmahmann, J. D. (1997). The cerebrocerebellar system. International Review of Neurobiology, 41, 39–60.

Sokolov, A. A. (2017). The cerebellum: Adaptive prediction for movement and cognition. Trends in Cognitive Sciences, 21(5), 313–332.

Wolpert, D. M. (1998). Internal models in the cerebellum. Trends in Cognitive Sciences, 2(9), 338–347.

Baumann, O. B. (2015). Consensus paper: The role of the cerebellum in perceptual processes. Cerebellum, 14(2), 197–220.

Koziol, L. F. (2014). Consensus paper: The cerebellum’s role in movement and cognition. Cerebellum, 13(1), 151–177.

Manto, M. B.-G. (2012). Consensus paper: Roles of the cerebellum in motor control: The diversity of ideas on cerebellar involvement in movement. Cerebellum, 11, 457–487.

Tseng, Y. D. (2007). Sensory prediction errors drive cerebellum-dependent adaptation of reaching. Journal of Neurophysiology, 98(1), 54–62.

Doyon, J. P. (2003). Distinct contribution of the cortico-striatal and cortico-cerebellar systems to motor skill learning. Neuropsychologia, 41(3), 252–262.

Petter, E. A. (2016). Interactive roles of the cerebellum and striatum in sub-second and supra-second timing: Support for an initiation, continuation, adjustment, and termination (ICAT) model of temporal processing. Neuroscience & Biobehavioral Reviews, 71, 739–755.

Shadmehr, R. S. (2010). Error correction, sensory prediction, and adaptation in motor control. Annual Review of Neuroscience, 33, 89–108.

Brown, S. M. (2006). The neural basis of human dance. Cerebral Cortex, 16(8), 1157–1167.

Buhusi, C. V. (2005). What makes us tick? Functional and neural mechanisms of interval timing. Nature Reviews Neuroscience, 6(10), 755–765.

Del Olmo, M. F. (2007). Role of the cerebellum in externally paced rhythmic finger movements. Journal of Neurophysiology, 98(1), 145–152.

Grahn, J. A., & Rowe, J. B. (2013). Finding and feeling the musical beat: Striatal dissociations between detection and prediction of regularity. Cerebral Cortex, 23(4), 913–921.

Thaut, M. H. (2009). Distinct cortico-cerebellar activations in rhythmic auditory motor synchronization. Cortex, 45(1), 44–53.

Manto, M. B.-G. (2012). Consensus paper: Roles of the cerebellum in motor control: The diversity of ideas on cerebellar involvement in movement. Cerebellum, 11, 457–487.

Chauvigné, L. A. (2014). The neural basis of audiomotor entrainment: An ALE meta-analysis. Frontiers in Human Neuroscience, 8, 776.

Witt, S. T. (2008). Functional neuroimaging correlates of fingertapping task variations: An ALE meta-analysis. NeuroImage, 42(1), 343–356.

Diedrichsen, J. C.-H. (2007). Dissociating timing and coordination as functions of the cerebellum. Journal of Neuroscience, 27(23), 6291–6301.

Gao, J. H. (1996). Cerebellum implicated in sensory acquisition and discrimination rather than motor control. Science, 272(5261), 545–547.

Mayville, J. M. (2002). Cortical and subcortical networks underlying syncopated and synchronized coordination revealed using fMRI. Human Brain Mapping, 17(4), 214–229.

Rao, S. M. (1997). Distributed neural systems underlying the timing of movements. Journal of Neuroscience, 17(4), 5528–5535.

Schwartze, M. K. (2016). Spontaneous, synchronized, and corrective timing behavior in cerebellar lesion patients. Behavioural Brain Research, 312, 285–293.

Thaut, M. H. (2008). Brain networks for integrative rhythm formation. PLoS ONE, 3(5), e2312.

Chapin, H. L. (2010). Neural responses to complex auditory rhythms: The role of attending. Frontiers in Psychology, 1, 547–558.

Chen, J. L. (2008b). Moving on time: Brain network for auditorymotor synchronization is modulated by rhythm complexity and musical training. Journal of Cognitive Neuroscience, 20(2), 226–239.

Jahanshahi, M. J. (1995). Self-initiated versus externally triggered movements: I. An investigation using measurement of regional cerebral blood flow with PET and and Parkinson’s disease subjects. Brain. Brain, 118(4), 913–933.

Jäncke, L. L. (2000). Cortical activations during paced finger-tapping applying visual and auditory pacing stimuli. Cognitive Brain Research, 10(1–2), 51–66.

Kornysheva, K. &. (2011). Impairment of auditory-motor timing and compensatory reorganization after ventral premotor cortex stimulation. PLoS ONE, 6(6), e21421.

Pecenka, N. E. (2013). Neural correlates of auditory temporal predictions during sensorimotor synchronization. Frontiers in Human Neuroscience, 7, 380.

Schubotz, R. I. (2007). Prediction of external events with our motor system: Towards a new framework. Trends in Cognitive Sciences, 11(5), 211–218.

Dum, R. P. (2002). An unfolded map of the cerebellar dentate nucleus and its projections to the cerebral cortex. Journal of Neurophysiology, 89(1), 634–639.

Middleton, F. A. (2001). Cerebellar projections to the prefrontal cortex of the primate. Journal of Neuroscience, 21(2), 700–712.

Durstewitz, D. (2003). Self-organizing neural integrator predicts interval times through climbing activity. Journal of Neuroscience, 23(12), 5342–5353.

Fatemi, S. H. (2012). Consensus paper: Pathological role of the cerebellum in autism. Cerebellum, 11(3), 777–807.

Mauk, M. D. (2004). The neural basis of temporal processing. Annual Review of Neuroscience, 37, 307–340.

Medina, J. F. (2000). Computer simulation of cerebellar information processing. Nature Neuroscience, 3(Suppl.), 1205–1211.

Molinari, M. L. (2005). Sensorimotor transduction of time information is preserved in subjects with cerebellar damage. Brain Research Bulletin, 67, 448–458.

Molinari, M. L. (2007). The cerebellum and neural networks for rhythmic sensorimotor synchronization in the human brain. Cerebellum, 6(1), 18–23.

Allman, M. J. (2014). Properties of the internal clock: First and second-order principles of subjective time. Annual Review of Psychology, 65, 743–771.

Ashe, J. &. (2014). The olivo-cerebellar system as a neural clock. In H. M. (Eds.), Neurobiology of interval timing: Advances in experimental medicine and biology (pp. 155–166). New York: Springer.

Ivry, R. B. (2002). The cerebellum and event timing. Annals of the New York Academy of Sciences, 978, 302–317.

Spencer, R. M. (2005). Role of the cerebellum in movements: Control of timing or movement transitions? Experimental Brain Research, 161(3), 383–396.

Teki, S. G. (2012). A unified model of time perception accounts for duration-based and beat-based timing mechanisms. Frontiers in Integrative Neuroscience, 5, 90.

Allman, M. J. (2014). Properties of the internal clock: First and second-order principles of subjective time. Annual Review of Psychology, 65, 743-771.

Petter, E. A. (2016). Interactive roles of the cerebellum and striatum in sub-second and supra-second timing: Support for an initiation, continuation, adjustment, and termination (ICAT) model of temporal processing. Neuroscience & Biobehavioral Reviews, 71, 739–755.

Teki, S., Grube, M., & Griffiths, T. D. (2012). A unified model of time perception accounts for duration-based and beat-based timing mechanisms. Frontiers in Integrative Neuroscience, 5, 90.

Grube, M. C. (2010). Dissociation of duration-based and beat-based auditory timing in cerebellar degeneration. Proceedings of the National Academy of Sciences, 107(25), 11597–11601.

Kotz, S. A. (2014). Cerebellum, temporal predictability and the updating of a mental model. Philosophical Transactions of the Royal Society B: Biological Sciences, 369(1658), 20130403.

O’Reilly, J. X. (2008). The cerebellum predicts the timing of perceptual events. Journal of Neuroscience, 28(9), 2252–2260.

Paquette, S. F. (2017). The cerebellum’s contribution to beat interval discrimination. NeuroImage, 163, 177–182.

Schwartze, M. R.-K. (2011). Temporal regularity effects on pre-attentive and attentive processing of deviance. Biological Psychology, 87(1), 146–151.

Teki, S. G. (2011). Distinct neural substrates of duration-based and beat-based auditory timing. Journal of Neuroscience, 31(10), 3805–3812.

Tesche, C. D. (2000). Anticipatory cerebellar responses during somatosensory omission in man. Human Brain Mapping, 9(3), 119–142.

Grube, M. C. (2010). Dissociation of duration-based and beat-based auditory timing in cerebellar degeneration. Proceedings of the National Academy of Sciences, 107(25), 11597–11601.

Grube, M. L. (2010). Transcranial magnetic theta-burst stimulation of the human cerebellum distinguishes absolute, duration-based from relative, beat-based perception of subsecond time intervals. Frontiers in Psychology, 1, 171.

Keren-Happuch, E. C. (2014). A meta-analysis of cerebellar contributions to higher cognition from PET and fMRI studies. Human Brain Mapping, 35(2), 593–615.

Lee, K.-H. E. (2007). The role of the cerebellum in subsecond time perception: Evidence from repetitive transcranial magnetic stimulation. Journal of Cognitive Neuroscience, 19(1), 147–157.

Kelly, R. M. (2003). Cerebellar loops with motor cortex and prefrontal cortex of a nonhuman primate. Journal of Neuroscience, 23(23), 8432–8444.

Stoodley, C. J. (2009). Functional topography in the human cerebellum: A meta-analysis of neuroimaging studies. NeuroImage, 44(2), 489–501.

Stoodley, C. J. (2010). Evidence for topographic organization in the cerebellum of motor control versus cognitive and affective processing. Cortex, 46(7), 831–844.

Buckner, R. L. (2013). The cerebellum and cognitive function: 25 years of insight from anatomy and neuroimaging. Neuron, 80(3), 807–815.

Alluri, V. T. (2012). Largescale brain networks emerge from dynamic processing of musical timbre, key and rhythm. NeuroImage, 59(4), 3677–3689.

Parsons, L. M. (2012). Exploring the functional neuroanatomy of music performance, perception, and comprehension. The Cognitive Neuroscience of Music, 930(1), 211–231.

Parsons, L. M. (2009). Pitch discrimination in cerebellar patients: Evidence for a sensory deficit. Brain Research, 1303, 84–96.

Pfordresher, P. Q. (2014). Brain responses to altered auditory feedback during musical keyboard production: An fMRI study. Brain Research , 1556, 28–37.

Thaut, M. H. (2014). Human brain basis of musical rhythm perception: Common and distinct neural substrates for meter, tempo, and pattern. Brain Sciences, 4(2), 428–452.

Toiviainen, P. A. (2014). Capturing the musical brain with Lasso: Dynamic decoding of musical features from fMRI data. NeuroImage, 88, 170–180.

Alluri, V. B. (2015). Musical expertise modulates functional connectivity of limbic regions during continuous music listening. Psychomusicology, 25(4), 443–454.

Pallesen, K. J. (2005). Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging imaging study. Annals of the New York Academy of Sciences, 1060, 450–453.

Frühholz, S. T. (2016). The sound of emotions: Towards a unifying neural network perspective of affective sound processing. Neuroscience & Biobehavioral Reviews, 68, 96–110.

Burunat, I. A. (2014). Dynamics of brain activity underlying working memory for music in a naturalistic condition. Cortex, 57, 254–269.

Ito, M. (2008). Control of mental activities by internal models in the cerebellum. Nature Reviews Neuroscience, 9(4), 304–313.

Marvel, C. L. (2010). Functional topography of the cerebellum in verbal working memory. Neuropsychology Review, 20(3), 271–279.

Grahn, J. A. (2011). fMRI investigation of cross-modal interactions in beat perception: Audition primes vision, but not vice versa. NeuroImage, 54(2), 1231–1243.

Kotz, S. A. (2016). Cortico-striatal circuits and the timing of action and perception. Current Opinion in Behavioral Sciences, 8, 42–45.

Nozaradan, S. S. (2017). Specific contributions of basal ganglia and cerebellum to the neural tracking of rhythm. Cortex, 95, 156–168.

Salimpoor, V. N. (2011). Anatomically distinct dopamine release during anticipation and experience of peak emotion to music. Nature Neuroscience, 14(2), 257–264.

Salimpoor, V. N. (2015). Predictions and the brain: How musical sounds become rewarding. Trends in Cognitive Sciences, 19(2), 86–91.

Seger, C. A. (2013). Corticostriatal contributions to musical expectancy perception. Journal of Cognitive Neuroscience, 25(7), 1062–1077.

Akkal, D. D. (2007). Supplementary motor area and presupplementary motor area: Targets of basal ganglia and cerebellar output. Journal of Neuroscience , 27(40), 10659–10673.

Lehéricy, S. D. (2004). 3-D diffusion tensor axonal tracking shows distinct SMA and pre-SMA projections to the human striatum. Cerebral Cortex, 14(12), 1302–1309.

Cunnington, R. B. (1996). The role of the supplementary motor area in the control of voluntary movement. Human Movement Science, 15(5), 627–647.

Halsband, U. I. (1993). The role of premotor cortex and the supplementary motor area in the temporal control of movement in man. Brain , 116(1), 243–266.

Coull, J. T. (2016). When to act, or not to act: That’s the SMA’s question. Current Opinion in Behavioral Sciences, 8, 14–21.

Harrington, D. L. (2016). Reconfiguration of striatal connectivity for timing and action. Current Opinion in Behavioral Sciences, 8, 78–84.

Lima, C. F. (2016). Roles of supplementary motor areas in auditory processing and auditory imagery. Trends in Neurosciences, 39(8), 527–542.

Nachev, P. K. (2008). Functional role of the supplementary and presupplementary motor areas. Nature Reviews Neuroscience, 9, 856–869.

Witt, S. T. (2008). Functional neuroimaging correlates of fingertapping task variations: An ALE meta-analysis. NeuroImage, 42(1), 343–356.

Bartolo, R. P. (2014). Information processing in the primate basal ganglia during sensory-guided and internally driven rhythmic tapping. Journal of Neuroscience, 34(11), 3910–3923.

Agostino, P. V. (2016). Contributions of dopaminergic signaling to timing accuracy and precision. Current Opinion in Behavioral Sciences, 8, 153–160.

Merchant, H. H. (2013). Neural basis of the perception and estimation of time. Annual Review of Neuroscience, 36, 313–336.

Matell, M. S. (2004). Cortico-striatal circuits and interval timing: Coincidence detection of oscillatory processes. Cognitive Brain Research , 21(2), 139–170.

Harrington, D. L. (2011). Neurobehavioral mechanisms of temporal processing deficits in Parkinson’s disease. PLoS ONE, 6(2), e17461.

Jahanshahi, M. J. (2010). Dopaminergic modulation of striato-frontal connectivity during motor timing in Parkinson’s disease., 133(3), 727–745.

Allman, M. J. (2012). Pathophysiological distortions in time perception and timed performance., 135(3), 656–677.

Coull, J. T. (2011). Neuroanatomical and neurochemical substrates of timing. Neuropsychopharmacology, 36(1), 3–25.

Coull, J. T. (2012). Dopamine precursor depletion impairs timing in healthy volunteers by attenuating activity in putamen and supplementary motor area. Journal of Neuroscience, 32(47), 16704–16715.

Narayanan, N. S. (2012). Prefrontal D1 dopamine signaling is required for temporal control. Proceedings of the National Academy of Sciences , 109(50), 20726–20731.

Bostan, A. C. (2013). Cerebellar networks with the cerebral cortex and basal ganglia. Trends in Cognitive Sciences, 17(5), 241–254.

Caligiore, D. P. (2017). Consensus paper: Towards a systems-level view of cerebellar function: The interplay between cerebellum, basal ganglia, and cortex. Cerebellum, 16(1), 203–229.

Chen, C. H.-B. (2014). Short latency cerebellarmodulation of the basal ganglia. Nature Neuroscience, 17(12), 1767–1775.

Pelzer, E. A. (2017). Basal ganglia and cerebellar interconnectivity within the human thalamus. Brain Structure and Function, 222(1), 381–392.

Lusk, N. A. (2016). Cerebellar, hippocampal, and striatal time cells. Current Opinion in Behavioral Sciences, 8, 186–192.

Frühholz, S. T. (2016). The sound of emotions: Towards a unifying neural network perspective of affective sound processing. Neuroscience & Biobehavioral Reviews, 68, 96–110.

Frühholz, S. T. (2014). The role of the medial temporal limbic system in processing emotions in voice and music. Progress in Neurobiology, 123, 1–17.

LeDoux, J. (2007). The amygdala. Current Biology, 17(20), R868–R874.

Reser, D. H. (2009). Connections of the marmoset rostrotemporal auditory area: Express pathways for analysis of affective content in hearing. European Journal of Neuroscience, 30(4), 578–592.

Pannese, A. G. (2016). Amygdala and auditory cortex exhibit distinct sensitivity to relevant acoustic features of auditory emotions. Cortex, 85, 116–125.

Huron, D. B. (2006). Sweet anticipation: Music and the psychology of expectation. Cambridge, MA: MIT Press.

Juslin, P. N. (2008). Emotional responses to music: The need to consider underlying mechanisms. Behavioral and Brain Sciences , 31(5), 559–575.

Koelsch, S. (2014). Brain correlates of music-evoked emotions. Nature Reviews Neuroscience, 15(3), 170–180.

Zatorre, R. J. (2015). Musical pleasure and reward: Mechanisms and dysfunction. Annals of the New York Academy of Sciences, 1337(1), 202–211.

Koelsch, S. S. (2013). The roles of superficial amygdala and auditory cortex in music-evoked fear and joy. NeuroImage, 81, 49–60.

Koelsch, S. &. (2014). Functional centrality of amygdala, striatum and hypothalamus in a “small-world” network underlying joy: An fMRI study with music. Human Brain Mapping, 35(7), 3485–3498.

Lehne, M. R. (2013). Tension-related activity in the orbitofrontal cortex and amygdala: An fMRI study with music. Social Cognitive and Affective Neuroscience, 9(10), 1515–1523.

Brattico, E. A. (2011). A functional MRI study of happy and sad emotions in music with and without lyrics. Frontiers in Psychology, 2, 308.

Koelsch, S. F. (2006). Investigating emotion with music: An fMRI study. Human Brain Mapping, 27(3), 239–250.

Mitterschiffthaler, M. T. (2007). A functional MRI study of happy and sad affective states induced by classical music. Human Brain Mapping, 28(11), 1150–1162.

Pallesen, K. J. (2005). Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Annals of the New York Academy of Sciences, 1060, 450–453.

Choppin, S. T. (2016). Alteration of complex negative emotions induced by music in euthymic patients with bipolar disorder. Journal of Affective Disorders, 191, 15–23.

Trost, W. E. (2012). Mapping aesthetic musical emotions in the brain. Cerebral Cortex, 22(12), 2769–2783.

Koelsch, S. F. (2006). Investigating emotion with music: An fMRI study. Human Brain Mapping, 27(3), 239–250.

Menon, V. &. (2005). The rewards of music listening: Response and physiological connectivity of the mesolimbic system. NeuroImage, 28(1), 175–184.

Mueller, K. F. (2015). Investigating the dynamics of the brain response to music: A central role of the ventral striatum/nucleus accumbens. NeuroImage , 116, 68–79.

Zatorre, R. J. (2013). From perception to pleasure: Music and its neural substrates. Proceedings of the National Academy of Sciences, 110(Suppl. 2), 10430–10437.

Blood, A. J. (2001). Intensely pleasurable responses to music correlate with activity in brain regions implicated in reward and emotion. Proceedings of the National Academy of Sciences, 98(20), 11818–11823.

Salimpoor, V. N. (2013). Interactions between the nucleus accumbens and auditory cortices predict music reward value. Science, 340(6129), 216–219.

Martínez-Molina, N. M.-H.-F.-P. (2016). Neural correlates of specific musical anhedonia. Proceedings of the National Academy of Sciences, 113(46), E7337–E7345.

Sachs, M. E. (2016). Brain connectivity reflects human aesthetic responses to music. Social Cognitive and Affective Neuroscience , 11(6), 884–891.

Blood, A. J. (2001). Intensely pleasurable responses to music correlate with activity in brain regions implicated in reward and emotion. Proceedings of the National Academy of Sciences, 98(20), 11818–11823.

Mas-Herrero, E. D. (2017). Modulating musical reward sensitivity up and down with transcranial magnetic stimulation. Nature Human Behaviour, 2(1), 27–32.

Haber, S. N. (2010). The reward circuit: Linking primate anatomy and human imaging. Neuropsychopharmacology , 35(1), 4–26.

Koelsch, S. S. (2018). The auditory cortex hosts network nodes influential for emotion processing: An fMRI study on music-evoked fear and joy. PLoS ONE , 13(1), e0190057.

Friston, K. J. (2011). Functional and effective connectivity: A review. Brain Connectivity , 1(1), 13–36.

Reybrouck, M. &. (2015). Neuroplasticity beyond sounds: Neural adaptations following long-term musical aesthetic experiences. Brain Sciences , 5(1), 69–91.

Wilkins, R. W. (2014). Network science and the effects of music preference on functional brain connectivity: From Beethoven to Eminem. Scientific Reports, 4(1), 6130.

Alluri, V. T. (2017). Connectivity patterns during music listening: Evidence for action-based processing in musicians. Human Brain Mapping, 38(6), 2955–2970.

Moore, E. S. (2014). Can musical training influence brain connectivity? Evidence from diffusion tensor MRI. Brain Sciences, 4(2), 405–427.

Adamos, D. A. (2018). Harnessing functional segregation across brain rhythms as a means to detect EEG oscillatory multiplexing during music listening. Journal of Neural Engineering, 15, 036012.

Klein, C. L. (2016). The “silent” imprint of musical training. Human Brain Mapping, 37(2), 536–546.

Rogenmoser, L. Z. (2016). Independent component processes underlying emotions during natural music listening. Social Cognitive and Affective Neuroscience, 11(9), 1428–1439.

Sänger, J. M. (2012). Intra- and interbrain synchronization and network properties when playing guitar in duets. Frontiers in Human Neuroscience , 6, 312.

Wu, J. Z. (2012). Graph theoretical analysis of EEG functional connectivity during music perception. Brain Research, 1483, 71–81.

Wu, J. Z. (2013). The effects of music on brain functional networks: A network. Neuroscience , 250, 49–59.

Bhattacharya, J. &. (2005). Phase synchrony analysis of EEG during music perception reveals changes in functional connectivity due to musical expertise. Signal Processing, 85(11), 2161–2177.