هوش مصنوعی اینتل حالات عاطفی دانش آموزان را شناسایی و تجزیهوتحلیل میکند
اینتل بهدنبال ارائهی راهکاری نرمافزاری با هدف بهره گرفتن از قدرت هوش مصنوعی برای بررسی چهره و زبان بدن دانشآموزان است. طبق پروتکل، این راهکار بهعنوان بخشی از محصول نرمافزاری Class توزیع خواهد شد و هدف آن کمک به تکنیکهای آموزشی معلمان است. این فناوری به آموزگاران اجازه میدهد حالات ذهنی استنتاجشده توسط هوش مصنوعی (مثل کسالت، حواسپرتی یا سردرگمی) هریک از دانشآموزان را مشاهده کنند. اینتل قصد دارد در نهایت این برنامه را در بازارهای بیشتری ارائه دهد. بااینحال، فناوری اینتل با مخالفتهایی مواجه شده و بحثهای در رابطه با هوش مصنوعی، علم، اخلاق و حریمخصوصی ایجاد کرده است.
فناوری مبتنیبر هوش مصنوعی اینتل که با مشارکت Classroom Technologies توسعه یافته است، ازطریق محصول نرمافزاری Class که با پلتفرم Zoom یکپارچه شده، ارائه میشود. هرزمان که کلاسهای دیجیتال ازطریق برنامهی ویدئو کنفرانس برگزار شود، میتوان از فناوری اینتل برای طبقهبندی زبان بدن و حالات چهرهی دانشآموزان استفاده کرد. مایکل چیس، یکی از بنیانگذاران و مدیرعامل Classroom Technologies با استناد به تجربیات معلمان پس از تدریس راهدور در طول دورهی همهگیری کرونا، امیدوار است که نرمافزار این شرکت، بینشهای بیشتری به آموزگاران ارائه دهد و درنهایت تجربهی یادگیری راهدور را بهبود بخشد.
این نرمافزار جریانهای ویدئویی دانشآموزان را بههمراه اطلاعات متنی و بلادرنگ به موتور هوش مصنوعی وارد میکند؛ این فرایند به نرمافزار اجازه میدهد درک دانشآموزان از موضوع را طبقهبندی کند. سنم اصلان، دانشمند پژوهشی در اینتل که در توسعهی این فناوری مشارکت داشته است میگوید هدف اصلی این تکنولوژی، بهبود جلسات تدریس یکبهیک با اجازه دادن به معلم برای واکنش لحظهای به وضعیت ذهنی هر دانشآموز است.
درحالیکه هدف اینتل و Classroom Technologies خوب بهنظر میرسد، فرض علمی اصلی پشت راهکار هوش مصنوعی این دو شرکت مبنیبر اینکه میتوان از حرکات زبان بدن و سایر سیگنالهای خارجی بهطور دقیق برای استنباط وضعیت ذهنی افراد استفاده کرد، چندان منطقی نیست.
ما هنوز بهطور کامل ابعاد بیرونی را که مردم حالات درونی خود را از آن طریق بیان میکنند، درک نکردهایم. بهعنوان مثال یک انسان معمولی حالات خود را ازطریق دهها یا حتی صدها حرکت کوچک (مثلاً گشاد شدن مردمک چشم)، حرکتهای بزرگتر (لبخند یا اخم کردن)، حرکات بدن یا سیگنالهای فیزیولوژیکی (مثل تعرق یا افزایش ضربان قلب) بیان میکند.
زمانیکه جامعهی علمی هنوز نتوانسته درمورد تبدیل اقدامات خارجی انسانها به حالتهای داخلی، به نتیجهگیری قطعی برسد، اندیشیدن در مدل فناوری هوش مصنوعی و دقت آن جالب بهنظر میرسد. در اینجا میتوان به مثال ساختن خانه روی شنهای روان اشاره کرد که بهندرت نتیجهبخش بوده است.
یکی دیگر از نکات درخورتوجه و بالقوه برای موتور هوش مصنوعی این است که ابراز احساسات انسانها در فرهنگهای مختلف، تفاوت دارد. درحالیکه بیشتر فرهنگها، لبخند زدن را با ابراز خوشحالی درونی برابر میدانند، اما لبخند بیشازحد در زمان نامناسب، بهعنوان فقدان هوش یا صداقت تعبیر میشود. با گسترش این مورد به فرهنگها، قومیتها و تنوع فردی بیشمار، میتوان پیامدهای این تغییرات شخصی و فرهنگی را بر دقت مدل هوش مصنوعی تصور کرد.
به گفتهی Nese Alyuz Civitci، محقق یادگیری ماشینی در اینتل، مدل این شرکت با بینش و تخصص تیمی از روانشناسان ساخته شده است که دادههای حقیقی ثبتشده در کلاسهای درس واقعی را با استفاده از لپتاپهای با دوربینهای سهبعدی، تجزیهوتحلیل کردند. سپس تیم روانشناسان به بررسی ویدئوها پرداخته و احساساتی را که در همهجا تشخیص دادند برچسبگذاری کردند. برای اینکه دادهها بهطور معتبر در مدل ادغام شوند، حداقل دو نفر از هر سه روانشناس باید درمورد نحوهی برچسبگذاری آن توافق میکردند.
Civitci تشخیص تفاوتهای فیزیکی ظریف بین برچسبهای احتمالی را بسیار سخت میدانست. جالب این است که اصلان میگوید هوش مصنوعی تحلیل احساسات اینتل، بر این اساس ارزیابی نشده که دقیقاً احساسات واقعی دانشآموزان را منعکس کند، بلکه براساس ابزاری بودن یا قابلاعتماد بودن نتایج آن توسط معلمان ارزیابی شده است.
سؤالات بیپایانی درمورد سیستمهای مبتنیبر هوش مصنوعی، دادههای آموزشی این سیستمها (که پیامدهای مهمی دارد و بهعنوان مثال روی فناوری تشخیص چهره مورد استفاده توسط مجریان قانون کاربرد دارد) و این که آیا میتوان به نتایج آن اعتماد کرد یا خیر، وجود دارد. سیستمهایی مثل فناوری هوش مصنوعی جدید اینتل میتوانند مفید واقع شده و معلمان را وادار کنند تا سؤالات درست را از دانشآموزی که درحالحاضر مشکل دارد، در زمان مناسب بپرسند. البته این فناوری با در نظر گرفتن نحوهی استفادهی آموزگاران از آن برای اطلاعرسانی نظرات خود درمورد دانشآموزان، میتواند برای عملکرد، رفاه و حتی موفقیت تحصیلی دانشآموزان مضر باشد.
در این میان، سؤالاتی هم درمورد تجزیهوتحلیل درازمدت حالات عاطفی دانشآموزان مطرح میشود؛ مثلا آیا شرکتی که دانشجویان را بهطور مستقیم از دانشگاه استخدام میکند میتواند گزارش سیستمهایی مثل هوش مصنوعی اینتل را با برچسبهایی مثل افسرده، مورد استفاده قرار دهد؟ افراد آسیبدیده باید به چه اندازهای از این دادهها دسترسی داشته باشند؟ درمورد حریمخصوصی عاطفی دانشآموزان، ظرفیت آنها برای درونی نگهداشتن حالات عاطفی چقدر خواهد بود؟ آیا ما با برچسب زدن و دردسترس بودن احساسات خود برای افراد دیگر، مشکلی نداریم؟ بخصوص اگر فردی در موقعیتی مهم قرار داشته باشد و درطرف دیگر هوش مصنوعی را داشته باشیم؟
ظاهراً مرز بین نظارت و فناوریهای کمکی مبتنیبر هوش مصنوعی، درحال کاهش است و کلاس درس یکی از محیطهایی است که درمعرض خطر قرار دارد.