به گزارش تیم خبری سوشال پورت

توسط

کلمات می توانند تأثیر قدرتمندی بر مردم بگذارند، حتی اگر توسط یک ماشین بی فکر خلق شده باشند.

برای مردم آسان است که گفتار روان را با تفکر روان اشتباه بگیرند.

وقتی جمله ای مانند این را می خوانید، تجربه گذشته شما باعث می شود فکر کنید که توسط یک فرد متفکر و احساسی نوشته شده است. و در این مورد، واقعاً شخصی وجود دارد که این کلمات را تایپ می کند: [Hi, there!] اما این روزها، برخی جملات که به‌طور شگفت‌انگیزی شبیه انسان به نظر می‌رسند، در واقع توسط سیستم‌های هوش مصنوعی که بر روی مقادیر عظیمی از متن انسانی آموزش دیده‌اند، تولید می‌شوند.

مردم آنقدر عادت دارند که فرض کنند زبان روان از یک فرد متفکر و احساسی ناشی می شود که درک شواهد خلاف آن دشوار است. چگونه انسان ها می توانند در این قلمرو نسبتا ناشناخته حرکت کنند؟ به دلیل تمایل شدید به مرتبط کردن بیان روان با تفکر روان، طبیعی است – اما به طور بالقوه اشتباه است – که فکر کنیم اگر یک مدل هوش مصنوعی بتواند آزادانه خود را بیان کند، به این معنی است که او نیز مانند انسان ها فکر و احساس می کند.

در نتیجه، شاید تعجب آور نباشد که یک مهندس سابق گوگل اخیرا ادعا کرده است که سیستم هوش مصنوعی LaMDA گوگل حسی از خود دارد، زیرا می تواند متنی را در مورد احساسات درک شده خود به طرز شیوای تولید کند. این رویداد و پوشش رسانه ای بعدی منجر شد به میزان به درستی شک دارد مقالات همچنین پیام ها در مورد این ادعا که مدل های محاسباتی زبان انسان هوشمند هستند، یعنی قادر به تفکر، احساس و تجربه هستند.

این سوال که معنای هوشمند بودن برای یک مدل هوش مصنوعی چیست در واقع بسیار پیچیده است (برای مثال نظر همکارمان را ببینید) و هدف ما در این مقاله حل این مشکل نیست. اما چگونه زبان محققانما می‌توانیم از کار خود در علوم شناختی و زبان‌شناسی استفاده کنیم تا توضیح دهیم که چرا برای انسان‌ها بسیار آسان است که در دام شناختی فرض کنیم که موجودی که می‌تواند آزادانه از زبان استفاده کند، ذی‌شعور، آگاه یا ذی‌شعور است.

استفاده از هوش مصنوعی برای ایجاد زبانی شبیه انسان

تشخیص متن تولید شده توسط مدل هایی مانند Google LaMDA از متن نوشته شده توسط انسان دشوار است. این دستاورد چشمگیر نتیجه یک برنامه چند ساله برای ایجاد مدل هایی است که زبانی معنادار از نظر گرامری ایجاد می کند.

الیزا 1966

اولین سیستم کامپیوتری که افراد را درگیر گفتگو کرد، یک برنامه روان درمانی به نام الیزا بود که بیش از نیم قرن پیش توسعه یافت. اعتبار: Rosenfeld Media/Flickr, SS BY

نسخه های اولیه حداقل به دهه 1950، معروف به مدل های n-gram، به سادگی عبارات خاصی را شمارش می کردند و از آنها برای حدس زدن کلماتی که ممکن است در زمینه های خاص وجود داشته باشند استفاده می کردند. به عنوان مثال، به راحتی می توان فهمید که عبارت “کره بادام زمینی و ژله” بیشتر از “کره بادام زمینی و آناناس” است. اگر متن انگلیسی کافی داشته باشید، عبارت “کره بادام زمینی و ژله” را بارها و بارها خواهید دید، اما هرگز عبارت “کره بادام زمینی و آناناس” را نبینید.

مدل‌ها، مجموعه داده‌ها و قوانین امروزی که زبان انسان را تقریب می‌کنند، از چندین جهت مهم با این تلاش‌های اولیه متفاوت است. اولاً، آنها تقریباً در کل اینترنت آموزش می بینند. دوم، آنها می توانند روابط بین کلماتی را که از هم دور هستند، نه فقط کلماتی که همسایه هستند، یاد بگیرند. ثالثاً، آنها با تعداد زیادی “شستی” داخلی پیکربندی شده اند – تعداد آنها بسیار زیاد است که حتی مهندسانی که آنها را طراحی می کنند درک اینکه چرا آنها یک دنباله از کلمات را تولید می کنند و نه دنباله ای دیگر را دشوار می دانند.

با این حال، وظیفه مدل‌ها مانند دهه 1950 باقی می‌ماند: تعیین کلمه بعدی. امروزه آنها آنقدر در این کار خوب هستند که تقریباً تمام جملاتی که تولید می کنند روان و دستوری به نظر می رسند.

کره بادام زمینی و آناناس؟

ما یک مدل زبان بزرگ درخواست کردیم، GPT-3برای تکمیل جمله “کره بادام زمینی و آناناس___”. می‌گفت: «کره بادام‌زمینی و آناناس ترکیبی عالی هستند. طعم شیرین و خوش طعم کره بادام زمینی و آناناس کاملاً مکمل یکدیگر هستند. اگر کسی این را بگوید، می‌توان نتیجه گرفت که کره بادام زمینی و آناناس را با هم چشیده، نظری داده و با خواننده در میان گذاشته است.

اما چگونه GPT-3 به این پاراگراف رسید؟ با ایجاد کلمه ای که با زمینه ای که ارائه کرده ایم مطابقت داشته باشد. و سپس دیگری. و سپس دیگری. این مدل هرگز آناناس را ندیده، لمس یا مزه نکرده است – او فقط تمام متون موجود در اینترنت را که به آنها اشاره می کند پردازش کرده است. با این حال، خواندن این پاراگراف ممکن است باعث شود ذهن انسان – حتی یک مهندس گوگل – GPT-3 را به عنوان موجودی باهوش تصور کند که می تواند درباره غذاهای کره بادام زمینی و آناناس استدلال کند.

https://www.youtube.com/watch?v=a6jt3Vufa9U
مدل های بزرگ زبان هوش مصنوعی می توانند آزادانه ارتباط برقرار کنند. با این حال، آنها پیام مشترکی برای انتقال ندارند، بنابراین عبارات آنها اغلب از متون ادبی متعارف برگرفته از متونی که آنها آموزش دیده اند پیروی می کند. به عنوان مثال، در موضوع “ماهیت عشق”، این مدل می تواند جملاتی در مورد این باور ایجاد کند که عشق بر همه چیز غلبه می کند. مغز انسان بیننده را ترغیب می کند که این کلمات را به عنوان نظر مدل در مورد موضوع تفسیر کند، اما این فقط یک توالی قابل قبول از کلمات است.

مغز انسان طوری برنامه ریزی شده است که در مورد مقاصد پشت کلمات استنباط کند. هر بار که در یک مکالمه شرکت می کنید، ذهن شما به طور خودکار یک مدل ذهنی از همکارتان ایجاد می کند. سپس از کلماتی که آنها می گویند استفاده می کنید تا مدل را با اهداف، احساسات و باورهای آن شخص پر کنید.

روند حرکت از کلمات به یک مدل ذهنی ساده است و هر بار که یک جمله کامل دریافت می کنید شروع می شود. این فرآیند شناختی در زمان و تلاش شما در زندگی روزمره صرفه جویی می کند و تعامل اجتماعی شما را بسیار آسان تر می کند.

با این حال، در مورد سیستم‌های هوش مصنوعی، این اشتباه عمل می‌کند – ایجاد یک مدل ذهنی از هوای رقیق.

کمی تحقیقات بیشتر ممکن است شدت این اشتباه را نشان دهد. سرنخ زیر را در نظر بگیرید: “کره بادام زمینی و پرها با هم عالی هستند زیرا ___.” GPT-3 ادامه داد: «کره بادام زمینی و پرها با هم طعم بسیار خوبی دارند زیرا هر دو طعم آجیلی دارند. کره بادام زمینی نیز صاف و خامه ای است که به خنثی شدن بافت پر کمک می کند.

متن در این مورد به همان اندازه روان است که در نمونه آناناسی ما وجود داشت، اما این بار مدل چیزی به وضوح کمتر معنادار می گوید. شما شروع به شک می کنید که GPT-3 هرگز کره بادام زمینی و پرها را امتحان نکرده است.

نسبت دادن هوش به ماشین ها، انکار آن به مردم

طنز غم انگیز این است که همان سوگیری شناختی که باعث می شود افراد انسانیت را به GPT-3 نسبت دهند، می تواند آنها را به رفتار غیرانسانی با افراد واقعی سوق دهد. زبان شناسی اجتماعی فرهنگی – مطالعه زبان در زمینه اجتماعی و فرهنگی آن – نشان می دهد که فرض ارتباط بسیار نزدیک بین بیان روان و تفکر روان می تواند منجر به سوگیری علیه افرادی شود که متفاوت صحبت می کنند.

به عنوان مثال، افراد با لهجه خارجی اغلب کمتر باهوش تلقی می شود و کمتر احتمال دارد شغلی را که برای آن واجد شرایط هستند به دست آورند. پیش داوری های مشابهی نیز علیه آن وجود دارد گویش گویان کسانی که معتبر تلقی نمی شوند، به عنوان مثال انگلیسی جنوبی در آمریکا علیه ناشنوایان با استفاده از زبان اشارهو در برابر افرادی که اختلالات گفتاری دارند به عنوان مثال لکنت زبان.

این پیشداوری‌ها بسیار مضر هستند و اغلب منجر به فرضیات نژادپرستانه و جنسیتی می‌شوند و بارها و بارها ثابت شده که بی‌اساس هستند.

مسلط بودن به زبان به خودی خود به معنای انسان بودن نیست.

آیا هوش مصنوعی هرگز حساس خواهد شد؟ این سؤال مستلزم بررسی عمیق است و فیلسوفان واقعاً فکر آی تی برای دهه ها. با این حال، محققان دریافته‌اند که وقتی یک مدل زبان به شما احساس می‌کند نمی‌توانید اعتماد کنید. کلمات می توانند گمراه کننده باشند و خیلی راحت می توان گفتار روان را با تفکر روان اشتباه گرفت.

نویسندگان:

  • کایل ماهووالد، دانشیار زبان‌شناسی، دانشگاه تگزاس در کالج علوم انسانی آستین
  • آنا ایوانوا، دکترای مغز و علوم شناختی، موسسه فناوری ماساچوست ([{” attribute=””>MIT)

Contributors:

  • Evelina Fedorenko, Associate Professor of Neuroscience, Massachusetts Institute of Technology (MIT)
  • Idan Asher Blank, Assistant Professor of Psychology and Linguistics, UCLA Luskin School of Public Affairs
  • Joshua B. Tenenbaum, Professor of Computational Cognitive Science, Massachusetts Institute of Technology (MIT)
  • Nancy Kanwisher, Professor of Cognitive Neuroscience, Massachusetts Institute of Technology (MIT)

This article was first published in The Conversation.The Conversation



منبع

لطفا ستاره بده (سمت چپ بیشترین امتیاز)
به اشتراک بگذارید:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.