انسان شناسی و فزهنگ
انسان شناسی، علمی ترین رشته علوم انسانی و انسانی ترین رشته در علوم است.

تغییرات زبانی در کلیشه‌های جنسیت و قومی همزمان با جنبش‌های بزرگ اجتماعی

تغییرات زبانی

الکس شاسکویچ برگردان زهرا خلجی پیربلوطی

نظام‌های هوش مصنوعی و الگوریتم‌هاییادگیری ماشینی اخیرا زیر بار تند انتقادات قرار گرفتند به خاطر اینکه آن‌ها بسته به اینکه با چه داده‌هایی برنامه ریزی شده اند، می‌توانند سوگیری‌های موجود در جامعه ما را یاد بگیرند و تشدید کنند.

امایک گروه از محققان بین رشته‌ای در استنفورد این مشکل را کاملا دگرگون کرده کرده اند و نتیجه تحقیقاتشان در مقاله‌ای که در ۳ آپریل در ژورنال Proceedings of the National Academy of Sciences چاپ شده است.

پژوهشگران از درونه گیری واژگان – تکنیک الگوریتمی که روابط و تداعی‌ها بین واژه‌ها را ترسیم می‌کند- بهره می‌گیرند تا تغییرات در کلیشه‌های جنسی و قومی که در طول قرن گذشته در آمریکا اتفاق افتاده را اندازه بگیرد. آن‌ها بانک داده‌های کتاب‌های آمریکایی، روزنامه‌ها و دیگر متون را تحلیل کردند و نگاه کردند که چگونه این تغییرات زبانی با داده‌های جمعیت شناسی آماری واقعی آمریکا و تغییرات بزرگ اجتماعی که به گفته پژوهش اعم جنبش‌های زنان در دهه ۶۰ و افزایش مهاجرت از آسیا می شود، ارتباط دارد.

جیمز زو، استادیار علم داده‌های بیوپزشکی بیان کرد :«درونه گیری واژه‌ها را می‌توان به عنوان ذره بینی برای مطالعه تغییرات تاریخی در کلیشه‌های درون اجتماع استفاده کرد. تحقیقات فبلی ما نشان داده است که درونه‌گیری‌ها به صورت کارآمدی کلیشه‌های موجود و آن سوگیری‌هایی را که می‌شود به صورت نظام‌مند حذفشان کرد، ضبط می‌کنند. اما ما فکر می‌کنیم که به جای حذف کردن آن‌ها ما همچنان می‌توانیم این درونه گیری‌ها را به عنوان یک دریچه تاریخی برای تحلیل‌های کمی زبان‌شناختی و جامعه‌شناختی استفاده کنیم.»

زو این مقاله را با استاد تاریخ لاندا شیبینگر، استاد زبان‌شناسی و علوم کامپیوتر دن جورافسکی و دانشجوی تحصیلات تکمیلی مهندسی الکترونیک، نیکیل گارگ، که نویسنده‌ی ارشد بوده است، نوشته است.

به گفته‌ی شیبینگر «این نوع از پژوهش درهای زیادی را برای ما باز می‌کند. یک سطح دیگری از شواهد را ارائه می‌کند که به دانشمندان علوم انسانی اجازه می‌دهد به دنبال پرسش‌هایی درباره‌ی تکامل کلیشه‌ها و سوگیری‌ها به میزانی بروند که قبلا امکان پذیر نبوده است.»

هندسه‌ی واژه‌ها

درونه گیری واژه‌ها یک الگوریتم است که به روییک مجموعه‌ای از متون استفاده یا به عبارتی آموزش داده می‌شود. این الگوریتم سپس می‌توانندیک بردار هندسی را به هر واژه مقرر کند که هر واژه را به شکل نقطه‌ای در فضا بازنمایی کند. این ترفند از مکان‌ها در این فضا استفاده می‌کند تا روابط بین واژه‌ها در منبع متن را ضبط کند.

جورافسکی می‌گوید :« درونه‌گیری‌هایک ابزار بسیار قدرتمند زبانی برای اندازه‌گیری جنبه‌های ظریف معانی واژه هستند، مثل سوگیری‌ها.به عنوان مثال واژه «افتحار آمیز» را در نظر بگیرید. با استفاده از این ابزار درونه‌گیری پژوهش‌های پیشین دریافتند که این صفت رابطه‌ی نزدیک‌تری با واژه‌ی مرد دارد تا زن.

در پژوهش تازه، تیم استنفورد از درونه‌گیری استفاده کرده اند تا صفت‌ها و شغل‌هایی را که برای زنان و گروه‌های قومیتی از ۱۹۰۰ تا کنون مورد تبعیض قرار می‌گرفتند را شناسایی کنند. محققان این درونه‌گیری‌ها را به روی بانک‌داده‌های روزنامه‌ها آموزش دادند و همچنین از درونه‌گیری‌هایی که قبلا توسط دانش آموخته رشته‌ی علوم کامپیوتر استنفورد ویل همیلتون به روی بانک‌داده‌های بزرگتری استفاده شده بود، مانند گوگل بوکز و پیکره کتاب‌های آمریکا، که شامل حدود ۱۳۰ میلیارد واژه می‌شود که بین قرن بیست و بیست و یکم منتشر شده‌اند، استفاده کردند.

این پژوهشگران این سوگیری‌ها را که توسط این درونه‌گیری‌ها پیدا شده بود با تغییرات جمعیت شناختی آمریکا در داده‌های آماری بین ۱۹۰۰ و تا کنون مقایسه کردند.

تغییرات در کلیشه‌ها

یافته‌های این پژوهش تغییرات قابل سنجش در بازنمایی جنسیت و سوگیری‌هایی که علیه آسیایی‌ها و دیگر گروه‌های قومی را که در طول قرن بیست صورت گرفته‌ است، نشان داد.

یکی از اینیافته‌هایی کلیدی که خود را نشان داد این بود که چگونه سوگیری‌های علیه زنان – از جنبه‌هایی- در طول زمان بهتر شده است.

به عنوان مثال، صفت‌هایی مانند «باهوش»، «منطقی» و «بافکر» بیشتر با مردان در نیمه‌ی نخست قرن ۲۰ همنشین شده بودند. اما از دهه‌ی ۶۰ به بعد همین واژه‌ها بیشتر هرچه جلوتر می‌آییم با زنان همنیشین می‌شوند، که با جنبش‌های زنان در دهه‌ی ۶۰ هم جهت است، اگرچه شکاف هم چنان باقی است.

این پژوهش همچنینیک تغییر بزرگ در کلیشه‌هایی که جهتشان به سمت آسیایی‌ها و آمریکایی آسیایی ها بود را نشان می‌دهد.
برای مثال در ۱۹۱۰ واژه‌هایی مانند «بربری»، «غول پیکر» و «ظالم» واژه‌هایی بودند که بیشتر با نام‌های خانوادگی آسیایی هم نشین می‌شدند. اما در دهه‌ی نود این صفت‌ها جای خودشان را به واژه‌هایی مانند «کمرو»، «منفعل» و «حساس» داده بودند. این تغییر زبانی با افزایشناگهانی مهاجرت آسیایی‌ها به آمریکا در دهه‌ی ۶۰ و ۸۰ و به گفته‌ی محققان با تغییر در کلیشه‌های فرهنگی رابطه‌ی مستقیم دارد.

گارگ بیان می‌کند :«تند بودن این تغییرات نظر مرا جلب کرد. وقتی شما تاریخ را مطالعه می‌کنید و کمپین‌های تبلیغاتی را و این دیدگاه‌های قدیمی درباره‌ی گروه‌های خارجی را متوجه می‌شوید. اما دانستن ارزش این که چه قدر از ادبیات آن زمان این کلیشه‌ها را بازنمایی می‌کنند و لذت بردن از آن بسیار دشوار است.»

در مجموع پژوهشگران نشان دادند که مسیر تغییرات در درونه‌گیری‌های واژه‌ها با تغییرات جمعیت شناختی که توسط سازمان آمار آمریکا اندازه‌گیری شده است به هم نزدیک هستند.

همکاری پرثمر

پژوهش اخیر به گفته محققان ارزش کار تیمی بین علوم انسانی و علم را به خوبی تصویر می‌کند.

شیبینگر گفت که او وقتی پژوهش‌های پیشین زو در رابطه با ضدسوگیری در الگوریتم‌هاییادگیری ماشین را خواند، با او تماس گرفت. شیبینگر هم چنین اضافه کرد که اعضای گروه برای پژوهش‌ها در آیندده با یکدیگر در حال همکاری هستند.

«اهمیت کار مشترک دانشمندان علوم انسانی و علوم کامپیوتر را برجسته کرده است. قدرتی در این روش‌هاییادگیری ماشینی در علوم انسانی وجود دارد که به تازگی در حال شناخته شدن است.»

اطلاعات بیشتر:

Nikhil Garg et al. Word embeddings quantify 100 years of gender and ethnic stereotypes, Proceedings of the

National Academy of Sciences (2018). DOI: 10.1073/pnas.1720347115

منبع: https://techxplore.com/news/2018-04-linguistic-gender-ethnic-stereotypes-major.html