عباس عبدی: این دروغ سنج، جایگزین کم‌هزینه برای لایحه پرهزینه فضای مجازی است!

«لایحه مقابله با انتشار اخبار خلاف در فضای مجازی جز اتلاف وقت و هزینه و عصبانی کردن مردم هیچ نتیجه دیگری نداشت.»

به گزارش اقتصاد آنلاین به نل از اعتماد آنلاین، عباس عبدی نوشت: هر کنشگر یا سیاست‌گذاری می‌کوشد که مهم‌ترین عامل‌های خود را وارد میدان تعاملات کند. کسی که پولدار است پولش را، کسی که قوی است، زورش را، کسی که زیباست، قیافه‌اش را، کسی که سخنور است، موعظه‌اش را، کسی که عاقل و دانشمند است، دانشش را به میدان بیاورد تا خود را پیروز رقابت‌ها یا ستیزه‌ها کند.

در این میان حکومت‌ها می‌کوشند که برای اعمال اقتدار خود، نه تنها مولفه‌های قدرت خود را تنوع بخشند بلکه به جای عوامل سخت‌افزاری به سوی استفاده از عوامل نرم‌افزاری حرکت کنند. یکی از تفاوت‌های مهم نظام‌های سیاسی اولویت دادن آنها بر عوامل مهارکننده و اِعمال اقتدار است.

در جامعه ما تنبیه و مجازات و نظارت فردی و جرم‌محور حرف اول را می‌زنند. هر مساله‌ای را که نمی‌پسندند ابتدا جرم‌انگاری کرده، سپس می‌خواهند با مجازات و تشدید نظارت بیرونی آن مساله را حل کنند، و در این میان یکی از ایده‌های رایج دفاع از افزایش شدت مجازات‌ها و گسترش حدود رفتار‌های مجرمانه است. در حالی که اگر با مجازات مساله‌ای حل یا رفتار‌ها مطابق میل قدرت می‌شد تاکنون همه مسائل دنیا حل شده بود.

لایحه مقابله با انتشار اخبار خلاف در فضای مجازی مصداق فاجعه‌باری از این رویکرد است که جز اتلاف وقت و هزینه و عصبانی کردن مردم هیچ نتیجه دیگری نداشت. تاکنون مطالب زیادی در مذمت و نقد این لایحه نوشته شده است. اکنون یکی از خوانندگان محترم یادداشت‌های من که در حوزه هوش مصنوعی آشنایی دارد با پایه قرار دادن نکات اصلی یادداشت‌های بنده، متن زیر را در چگونگی استفاده از این هوش برای مقابله با اخبار خلاف فرستاده که رویکردی ایجابی برای دست‌اندرکاران است تا جلوی دروغ و خلاف‌گویی را با استفاده از این ابزار بگیرند.

هوش مصنوعی (AI) نقش مهمی در راستی‌آزمایی اطلاعات، به‌ویژه در فضای مجازی ایفا می‌کند و می‌تواند به عنوان ابزاری دقیق و زیرساختی برای مقابله با دروغ و اطلاعات نادرست عمل کند. با توجه به ضرورت التزام به حقیقت‌محوری و شفافیت، درباره نقش AI، کاربرد‌ها و محدودیت‌های آن در ایران، پیشنهاد‌هایی برای استفاده ارایه می‌شود. نقش و کاربرد‌های هوش مصنوعی در راستی‌آزمایی متنوع است.

– تشخیص خودکار اخبار جعلی؛ که با تکیه بر مدل‌های یادگیری الگو‌های زبانی از سوی هوش مصنوعی می‌تواند منابع غیرمعتبر، یا تناقضات در اخبار را شناسایی کنند. هم‌اکنون پلتفرم‌هایی مانند Full Fact در بریتانیا یا پروژه‌های AI مثل Grok (توسعه‌یافته توسط xAI) برای تحلیل محتوا و شناسایی ادعا‌های مشکوک استفاده می‌شوند. این شیوه به دلیل سرعت بالا در پردازش حجم عظیم داده‌ها، به‌ویژه در شبکه‌های اجتماعی مزیت بالایی دارند.

– تحلیل تصاویر و ویدئوها؛ الگوریتم‌های بینایی کامپیوتری می‌توانند تصاویر یا ویدئو‌های دستکاری‌شده (Deepfake) را شناسایی کنند. ابزار‌هایی مثل Google Fact Check Explorer یا InVID تصاویر را با منابع معتبر مقایسه می‌کنند. برای مثال؛ شناسایی ویدئو‌های جعلی در انتخابات یا بحران‌ها (مثل جنگ ۱۲ روزه با اسراییل) را به راحتی انجام می‌دهند. مزیت آن نیز کاهش تأثیر محتوا‌های بصری گمراه‌کننده‌ای است که به سرعت بازنشر می‌شود.

– راستی‌آزمایی ادعا‌ها با داده‌های باز؛ هوش مصنوعی می‌تواند ادعا‌های مطرح‌شده در رسانه‌ها را با پایگاه‌های داده عمومی (مثل آمار دولتی، گزارش‌های سازمان‌های بین‌المللی) مقایسه کند و صحت آنها را ارزیابی کند و موجب کاهش سوگیری انسانی در فرآیند راستی‌آزمایی شود.

– مدیریت شایعات در زمان کوتاه؛ هوش مصنوعی می‌تواند روند انتشار شایعات را در پلتفرم‌هایی مثل X یا تلگرام یا شبکه‌های ایرانی رصد کرده و با هشدار به موقع به کاربران یا پلتفرم‌ها، گسترش آنها را محدود کند و واکنش سریع به اطلاعات نادرست در بحران‌ها بروز دهد.

– آموزش و توانمندسازی کاربران؛ چت‌بات‌های مبتنی بر AI می‌توانند به کاربران کمک کنند تا منابع خبری را تحلیل کنند یا صحت یک ادعا را بررسی کنند. مثل چت‌بات‌هایی که در واتس‌اپ یا تلگرام به کاربران پاسخ می‌دهند و منابع معتبر را پیشنهاد می‌کنند و سواد رسانه‌ای به‌صورت تعاملی و در دسترس را افزایش دهند.

البته هوش مصنوعی در راستی‌آزمایی اخبار محدودیت‌هایی هم دارد از جمله؛ وابستگی به داده‌های باکیفیت؛ هوش مصنوعی برای عملکرد موثر نیازمند دسترسی به داده‌های معتبر و گسترده است. در کشور‌هایی مثل ایران که دسترسی به داده‌های شفاف محدود است، دقت آن کاهش می‌یابد و اگر پایگاه‌های داده ناقص یا مغرضانه باشند، ممکن است نتایج گمراه‌کننده تولید کند.

– سوگیری الگوریتمی؛ الگوریتم‌های هوش مصنوعی ممکن است به دلیل طراحی یا داده‌های آموزشی، سوگیری‌های فرهنگی، سیاسی یا زبانی داشته باشند. این مشکل در جوامع قطبی‌شده مثل ایران می‌تواند اعتماد به آن را کاهش دهد و بدون نظارت انسانی، ممکن است به‌طور ناخواسته برخی گروه‌ها را سانسور یا بدنام کند. البته با گذشت زمان و با انجام اصلاحات لازم، می‌توان کارایی آنها را ارتقا داد.

– ناتوانی در درک زمینه محتوا؛ هوش مصنوعی در تحلیل طنز، کنایه یا محتوای فرهنگی خاص ممکن است اشتباه کند و یک ادعای غیرجدی را به عنوان دروغ شناسایی کند. این محدودیت می‌تواند به برچسب‌گذاری نادرست محتوا منجر شود.

– خطر سانسور و سوءاستفاده؛ دولت‌ها یا شرکت‌های بزرگ ممکن است از هوش مصنوعی برای سرکوب محتوای مخالف تحت عنوان «راستی‌آزمایی» استفاده کنند، که با هشدار‌های موجود درباره جرم‌انگاری هم‌راستاست و در نبود نهاد‌های مستقل، می‌تواند به ابزاری برای کنترل اطلاعات تبدیل شود.

– محدودیت‌های فنی در محتوا‌های غیرمتنی؛ هوش مصنوعی در شناسایی Deepfake‌های پیشرفته یا محتوا‌های دستکاری‌شده صوتی، هنوز چالش‌برانگیز است و نیاز به فناوری‌های پیشرفته‌تر دارد. این مشکل در کشور‌هایی با زیرساخت‌های ضعیف‌تر پررنگ‌تر است.

برای استفاده از AI در راستی‌آزمایی و مقابله با خلاف‌گویی در ایران و با توجه به لزوم غلبه رویکرد حقیقت‌محوری و اجتناب حداکثری از رویکرد کیفری، اقدامات زیر پیشنهاد می‌شود:

– ایجاد پلتفرم‌های راستی‌آزمایی مبتنی بر هوش مصنوعی با همکاری دانشگاه‌ها و سازمان‌های غیردولتی مستقل. این ابزار‌ها باید متن‌باز (Open-Source) باشند تا از سوءاستفاده جلوگیری شود. برای نمونه ابزاری باشد که محتوای پربازدید در تلگرام یا X و از همه مهم‌تر در شبکه‌های داخلی ایتا و بله را تحلیل و با داده‌های عمومی (مثل آمار رسمی مرکز آمار و بانک مرکزی) مقایسه کند.

– برای کاهش سوگیری و خطا، AI باید با تیم‌های راستی‌آزمایی انسانی (شامل روزنامه‌نگاران و محققان مستقل) ترکیب شود. این تیم‌ها می‌توانند زمینه فرهنگی و سیاسی را بهتر تحلیل کنند.

– توسعه چت‌بات‌های آموزشی به زبان فارسی و با توجه به فرهنگ محلی، کاربران را در تحلیل اخبار راهنمایی می‌کنند. این چت‌بات‌ها می‌توانند در پیام‌رسان‌های با کاربر بالا مثل تلگرام یا واتس‌اپ و ایتا فعال شوند، و به کاربر کمک کنند منبع یک خبر را بررسی یا ادعایی را با داده‌های رسمی مقایسه کند.

– برای تقویت دقت AI، دولت باید داده‌های عمومی (مثل آمار اقتصادی، سیاسی، قضایی یا سلامت) را به‌صورت شفاف منتشر کند. این کار هم‌راستا با تأکید بر شفافیت است.

– به جای تأکید بر استفاده از AI برای شناسایی و مجازات منتشرکنندگان اخبار جعلی یا خلاف، باید از آن برای اطلاع‌رسانی و آموزش استفاده شود. این رویکرد از خطر سانسور جلوگیری می‌کند. مثل برچسب‌گذاری محتوای مشکوک در پلتفرم‌ها به‌جای سانسور یا جرم‌انگاری. اتفاقا وجود خبر دروغ با برچسب دروغ نیز آموزنده‌تر از حذف آن است.

– همکاری با شرکت‌هایی مثل xAI یا گوگل برای استفاده از ابزار‌های راستی‌آزمایی پیشرفته، با شرط حفظ استقلال و حریم خصوصی کاربران ایرانی، به ویژه برای تحلیل محتوا‌های فارسی.

پیشنهاد‌های این خواننده محترم منطقی و روشن است ولی به نظرم بعید است از سوی قانونگذاران ایرانی مورد توجه قرارگیرد، چون اگر چنین شود آنگاه خواهند دید که کاربران تندروی داخلی و براندازان خارج از کشور در شبکه‌های اجتماعی، بار‌ها و بار‌ها بیش از دیگران دروغ منتشر می‌کنند. با گروه اول که قصد مقابله نیست و به گروه دوم هم دسترسی قضایی ندارند. نتیجه ایجاد مشکل برای کاربران منطقی و مستقل و مسوول است.