هوش مصنوعی اینتل حالات عاطفی دانش آموزان را شناسایی و تجزیه‌وتحلیل می‌کند

{title limit=50}

اینتل به‌دنبال ارائه‌ی راهکاری نرم‌افزاری با هدف بهره گرفتن از قدرت هوش مصنوعی برای بررسی چهره و زبان بدن دانش‌آموزان است. طبق پروتکل، این راهکار به‌عنوان بخشی از محصول نرم‌افزاری Class توزیع خواهد شد و هدف آن کمک به تکنیک‌های آموزشی معلمان است. این فناوری به آموزگاران اجازه می‌دهد حالات ذهنی استنتاج‌شده توسط هوش مصنوعی (مثل کسالت، حواس‌پرتی یا سردرگمی) هریک از دانش‌آموزان را مشاهده کنند. اینتل قصد دارد در نهایت این برنامه را در بازارهای بیشتری ارائه دهد. بااین‌حال، فناوری اینتل با مخالفت‌هایی مواجه شده و بحث‌های در رابطه با هوش مصنوعی، علم، اخلاق و حریم‌خصوصی ایجاد کرده است.

فناوری مبتنی‌بر هوش مصنوعی اینتل که با مشارکت Classroom Technologies توسعه یافته است، ازطریق محصول نرم‌افزاری Class که با پلتفرم Zoom یکپارچه شده، ارائه می‌شود. هرزمان که کلاس‌های دیجیتال ازطریق برنامه‌ی ویدئو کنفرانس برگزار شود، می‌توان از فناوری اینتل برای طبقه‌بندی زبان بدن و حالات چهره‌ی دانش‌آموزان استفاده کرد. مایکل چیس، یکی از بنیان‌گذاران و مدیرعامل Classroom Technologies با استناد به تجربیات معلمان پس از تدریس راه‌دور در طول دوره‌ی همه‌گیری کرونا، امیدوار است که نرم‌افزار این شرکت، بینش‌های بیشتری به آموزگاران ارائه دهد و درنهایت تجربه‌ی یادگیری راه‌دور را بهبود بخشد.

این نرم‌افزار جریان‌های ویدئویی دانش‌آموزان را به‌همراه اطلاعات متنی و بلادرنگ به موتور هوش مصنوعی وارد می‌کند؛ این فرایند به نرم‌افزار اجازه می‌دهد درک دانش‌آموزان از موضوع را طبقه‌بندی کند. سنم اصلان، دانشمند پژوهشی در اینتل که در توسعه‌ی این فناوری مشارکت داشته است می‌گوید هدف اصلی این تکنولوژی، بهبود جلسات تدریس یک‌به‌یک با اجازه دادن به معلم برای واکنش لحظه‌ای به وضعیت ذهنی هر دانش‌آموز است.

تشخیص حالات عاطفی با هوش مصنوعی

درحالی‌که هدف اینتل و Classroom Technologies خوب به‌نظر می‌رسد، فرض علمی اصلی پشت راهکار هوش مصنوعی این دو شرکت مبنی‌بر این‌که می‌توان از حرکات زبان بدن و سایر سیگنال‌های خارجی به‌طور دقیق برای استنباط وضعیت ذهنی افراد استفاده کرد، چندان منطقی نیست.

ما هنوز به‌طور کامل ابعاد بیرونی را که مردم حالات درونی خود را از آن طریق بیان می‌کنند، درک نکرده‌ایم. به‌عنوان مثال یک انسان معمولی حالات خود را ازطریق ده‌ها یا حتی صد‌ها حرکت کوچک (مثلاً گشاد شدن مردمک چشم)، حرکت‌های بزرگ‌تر (لبخند یا اخم کردن)، حرکات بدن یا سیگنال‌های فیزیولوژیکی (مثل تعرق یا افزایش ضربان قلب) بیان می‌کند.

زمانی‌که جامعه‌ی علمی هنوز نتوانسته درمورد تبدیل اقدامات خارجی انسان‌ها به حالت‌های داخلی، به نتیجه‌گیری قطعی برسد، اندیشیدن در مدل فناوری هوش مصنوعی و دقت آن جالب به‌نظر می‌رسد. در اینجا می‌توان به مثال ساختن خانه روی شن‌های روان اشاره کرد که به‌ندرت نتیجه‌بخش بوده است.

یکی دیگر از نکات درخورتوجه و بالقوه برای موتور هوش مصنوعی این است که ابراز احساسات انسان‌ها در فرهنگ‌های مختلف، تفاوت دارد. درحالی‌که بیشتر فرهنگ‌ها، لبخند زدن را با ابراز خوشحالی درونی برابر می‌دانند، اما لبخند بیش‌ازحد در زمان نامناسب، به‌عنوان فقدان هوش یا صداقت تعبیر می‌شود. با گسترش این مورد به فرهنگ‌ها، قومیت‌ها و تنوع فردی بی‌شمار، می‌توان پیامدهای این تغییرات شخصی و فرهنگی را بر دقت مدل هوش مصنوعی تصور کرد.

به گفته‌ی Nese Alyuz Civitci، محقق یادگیری ماشینی در اینتل، مدل این شرکت با بینش و تخصص تیمی از روان‌شناسان ساخته شده است که داده‌های حقیقی ثبت‌شده در کلاس‌های درس واقعی را با استفاده از لپ‌تاپ‌های با دوربین‌های سه‌بعدی، تجزیه‌وتحلیل کردند. سپس تیم روان‌شناسان به بررسی ویدئوها پرداخته و احساساتی را که در همه‌جا تشخیص دادند برچسب‌گذاری کردند. برای این‌که داده‌ها به‌طور معتبر در مدل ادغام شوند، حداقل دو نفر از هر سه‌ روان‌شناس باید درمورد نحوه‌ی برچسب‌گذاری آن توافق می‌کردند.

Civitci تشخیص تفاوت‌های فیزیکی ظریف بین برچسب‌های احتمالی را بسیار سخت می‌دانست. جالب این است که اصلان می‌گوید هوش مصنوعی تحلیل احساسات اینتل، بر این اساس ارزیابی نشده که دقیقاً احساسات واقعی دانش‌آموزان را منعکس کند، بلکه براساس ابزاری بودن یا قابل‌اعتماد بودن نتایج آن توسط معلمان ارزیابی شده است.

هوش مصنوعی

سؤالات بی‌پایانی درمورد سیستم‌های مبتنی‌بر هوش مصنوعی، داده‌های آموزشی این سیستم‌ها (که پیامدهای مهمی دارد و به‌عنوان مثال روی فناوری تشخیص چهره مورد استفاده توسط مجریان قانون کاربرد دارد) و این که آیا می‌توان به نتایج آن اعتماد کرد یا خیر، وجود دارد. سیستم‌هایی مثل فناوری هوش مصنوعی جدید اینتل می‌توانند مفید واقع شده و معلمان را وادار کنند تا سؤالات درست را از دانش‌آموزی که درحال‌حاضر مشکل دارد، در زمان مناسب بپرسند. البته این فناوری با در نظر گرفتن نحوه‌ی استفاده‌ی آموزگاران از آن برای اطلاع‌رسانی نظرات خود درمورد دانش‌آموزان، می‌تواند برای عملکرد، رفاه و حتی موفقیت‌ تحصیلی دانش‌آموزان مضر باشد.

در این میان، سؤالاتی هم درمورد تجزیه‌وتحلیل درازمدت حالات عاطفی دانش‌آموزان مطرح می‌شود؛ مثلا آیا شرکتی که دانش‌جویان را به‌طور مستقیم از دانشگاه استخدام می‌کند می‌تواند گزارش سیستم‌هایی مثل هوش مصنوعی اینتل را با برچسب‌هایی مثل افسرده، مورد استفاده قرار دهد؟ افراد آسیب‌دیده باید به چه‌ اندازه‌ای از این داده‌ها دسترسی داشته باشند؟ درمورد حریم‌خصوصی عاطفی دانش‌آموزان، ظرفیت‌ آن‌ها برای درونی نگه‌داشتن حالات عاطفی چقدر خواهد بود؟ آیا ما با برچسب زدن و دردسترس بودن احساسات خود برای افراد دیگر، مشکلی نداریم؟ بخصوص اگر فردی در موقعیتی مهم قرار داشته باشد و درطرف دیگر هوش مصنوعی را داشته باشیم؟

ظاهراً مرز بین نظارت و فناوری‌های کمکی مبتنی‌بر هوش مصنوعی، درحال کاهش است و کلاس درس یکی از محیط‌هایی است که درمعرض خطر قرار دارد.






ارسال نظر

عکس خوانده نمی‌شود
13