نام کاربری یا نشانی ایمیل
رمز عبور
لطفا پاسخ را به عدد انگلیسی وارد کنید:
مرا به خاطر بسپار
«لایحه مقابله با انتشار اخبار خلاف در فضای مجازی جز اتلاف وقت و هزینه و عصبانی کردن مردم هیچ نتیجه دیگری نداشت.»
به گزارش اقتصاد آنلاین به نل از اعتماد آنلاین، عباس عبدی نوشت: هر کنشگر یا سیاستگذاری میکوشد که مهمترین عاملهای خود را وارد میدان تعاملات کند. کسی که پولدار است پولش را، کسی که قوی است، زورش را، کسی که زیباست، قیافهاش را، کسی که سخنور است، موعظهاش را، کسی که عاقل و دانشمند است، دانشش را به میدان بیاورد تا خود را پیروز رقابتها یا ستیزهها کند.
در این میان حکومتها میکوشند که برای اعمال اقتدار خود، نه تنها مولفههای قدرت خود را تنوع بخشند بلکه به جای عوامل سختافزاری به سوی استفاده از عوامل نرمافزاری حرکت کنند. یکی از تفاوتهای مهم نظامهای سیاسی اولویت دادن آنها بر عوامل مهارکننده و اِعمال اقتدار است.
در جامعه ما تنبیه و مجازات و نظارت فردی و جرممحور حرف اول را میزنند. هر مسالهای را که نمیپسندند ابتدا جرمانگاری کرده، سپس میخواهند با مجازات و تشدید نظارت بیرونی آن مساله را حل کنند، و در این میان یکی از ایدههای رایج دفاع از افزایش شدت مجازاتها و گسترش حدود رفتارهای مجرمانه است. در حالی که اگر با مجازات مسالهای حل یا رفتارها مطابق میل قدرت میشد تاکنون همه مسائل دنیا حل شده بود.
لایحه مقابله با انتشار اخبار خلاف در فضای مجازی مصداق فاجعهباری از این رویکرد است که جز اتلاف وقت و هزینه و عصبانی کردن مردم هیچ نتیجه دیگری نداشت. تاکنون مطالب زیادی در مذمت و نقد این لایحه نوشته شده است. اکنون یکی از خوانندگان محترم یادداشتهای من که در حوزه هوش مصنوعی آشنایی دارد با پایه قرار دادن نکات اصلی یادداشتهای بنده، متن زیر را در چگونگی استفاده از این هوش برای مقابله با اخبار خلاف فرستاده که رویکردی ایجابی برای دستاندرکاران است تا جلوی دروغ و خلافگویی را با استفاده از این ابزار بگیرند.
هوش مصنوعی (AI) نقش مهمی در راستیآزمایی اطلاعات، بهویژه در فضای مجازی ایفا میکند و میتواند به عنوان ابزاری دقیق و زیرساختی برای مقابله با دروغ و اطلاعات نادرست عمل کند. با توجه به ضرورت التزام به حقیقتمحوری و شفافیت، درباره نقش AI، کاربردها و محدودیتهای آن در ایران، پیشنهادهایی برای استفاده ارایه میشود. نقش و کاربردهای هوش مصنوعی در راستیآزمایی متنوع است.
– تشخیص خودکار اخبار جعلی؛ که با تکیه بر مدلهای یادگیری الگوهای زبانی از سوی هوش مصنوعی میتواند منابع غیرمعتبر، یا تناقضات در اخبار را شناسایی کنند. هماکنون پلتفرمهایی مانند Full Fact در بریتانیا یا پروژههای AI مثل Grok (توسعهیافته توسط xAI) برای تحلیل محتوا و شناسایی ادعاهای مشکوک استفاده میشوند. این شیوه به دلیل سرعت بالا در پردازش حجم عظیم دادهها، بهویژه در شبکههای اجتماعی مزیت بالایی دارند.
– تحلیل تصاویر و ویدئوها؛ الگوریتمهای بینایی کامپیوتری میتوانند تصاویر یا ویدئوهای دستکاریشده (Deepfake) را شناسایی کنند. ابزارهایی مثل Google Fact Check Explorer یا InVID تصاویر را با منابع معتبر مقایسه میکنند. برای مثال؛ شناسایی ویدئوهای جعلی در انتخابات یا بحرانها (مثل جنگ ۱۲ روزه با اسراییل) را به راحتی انجام میدهند. مزیت آن نیز کاهش تأثیر محتواهای بصری گمراهکنندهای است که به سرعت بازنشر میشود.
– راستیآزمایی ادعاها با دادههای باز؛ هوش مصنوعی میتواند ادعاهای مطرحشده در رسانهها را با پایگاههای داده عمومی (مثل آمار دولتی، گزارشهای سازمانهای بینالمللی) مقایسه کند و صحت آنها را ارزیابی کند و موجب کاهش سوگیری انسانی در فرآیند راستیآزمایی شود.
– مدیریت شایعات در زمان کوتاه؛ هوش مصنوعی میتواند روند انتشار شایعات را در پلتفرمهایی مثل X یا تلگرام یا شبکههای ایرانی رصد کرده و با هشدار به موقع به کاربران یا پلتفرمها، گسترش آنها را محدود کند و واکنش سریع به اطلاعات نادرست در بحرانها بروز دهد.
– آموزش و توانمندسازی کاربران؛ چتباتهای مبتنی بر AI میتوانند به کاربران کمک کنند تا منابع خبری را تحلیل کنند یا صحت یک ادعا را بررسی کنند. مثل چتباتهایی که در واتساپ یا تلگرام به کاربران پاسخ میدهند و منابع معتبر را پیشنهاد میکنند و سواد رسانهای بهصورت تعاملی و در دسترس را افزایش دهند.
البته هوش مصنوعی در راستیآزمایی اخبار محدودیتهایی هم دارد از جمله؛ وابستگی به دادههای باکیفیت؛ هوش مصنوعی برای عملکرد موثر نیازمند دسترسی به دادههای معتبر و گسترده است. در کشورهایی مثل ایران که دسترسی به دادههای شفاف محدود است، دقت آن کاهش مییابد و اگر پایگاههای داده ناقص یا مغرضانه باشند، ممکن است نتایج گمراهکننده تولید کند.
– سوگیری الگوریتمی؛ الگوریتمهای هوش مصنوعی ممکن است به دلیل طراحی یا دادههای آموزشی، سوگیریهای فرهنگی، سیاسی یا زبانی داشته باشند. این مشکل در جوامع قطبیشده مثل ایران میتواند اعتماد به آن را کاهش دهد و بدون نظارت انسانی، ممکن است بهطور ناخواسته برخی گروهها را سانسور یا بدنام کند. البته با گذشت زمان و با انجام اصلاحات لازم، میتوان کارایی آنها را ارتقا داد.
– ناتوانی در درک زمینه محتوا؛ هوش مصنوعی در تحلیل طنز، کنایه یا محتوای فرهنگی خاص ممکن است اشتباه کند و یک ادعای غیرجدی را به عنوان دروغ شناسایی کند. این محدودیت میتواند به برچسبگذاری نادرست محتوا منجر شود.
– خطر سانسور و سوءاستفاده؛ دولتها یا شرکتهای بزرگ ممکن است از هوش مصنوعی برای سرکوب محتوای مخالف تحت عنوان «راستیآزمایی» استفاده کنند، که با هشدارهای موجود درباره جرمانگاری همراستاست و در نبود نهادهای مستقل، میتواند به ابزاری برای کنترل اطلاعات تبدیل شود.
– محدودیتهای فنی در محتواهای غیرمتنی؛ هوش مصنوعی در شناسایی Deepfakeهای پیشرفته یا محتواهای دستکاریشده صوتی، هنوز چالشبرانگیز است و نیاز به فناوریهای پیشرفتهتر دارد. این مشکل در کشورهایی با زیرساختهای ضعیفتر پررنگتر است.
برای استفاده از AI در راستیآزمایی و مقابله با خلافگویی در ایران و با توجه به لزوم غلبه رویکرد حقیقتمحوری و اجتناب حداکثری از رویکرد کیفری، اقدامات زیر پیشنهاد میشود:
– ایجاد پلتفرمهای راستیآزمایی مبتنی بر هوش مصنوعی با همکاری دانشگاهها و سازمانهای غیردولتی مستقل. این ابزارها باید متنباز (Open-Source) باشند تا از سوءاستفاده جلوگیری شود. برای نمونه ابزاری باشد که محتوای پربازدید در تلگرام یا X و از همه مهمتر در شبکههای داخلی ایتا و بله را تحلیل و با دادههای عمومی (مثل آمار رسمی مرکز آمار و بانک مرکزی) مقایسه کند.
– برای کاهش سوگیری و خطا، AI باید با تیمهای راستیآزمایی انسانی (شامل روزنامهنگاران و محققان مستقل) ترکیب شود. این تیمها میتوانند زمینه فرهنگی و سیاسی را بهتر تحلیل کنند.
– توسعه چتباتهای آموزشی به زبان فارسی و با توجه به فرهنگ محلی، کاربران را در تحلیل اخبار راهنمایی میکنند. این چتباتها میتوانند در پیامرسانهای با کاربر بالا مثل تلگرام یا واتساپ و ایتا فعال شوند، و به کاربر کمک کنند منبع یک خبر را بررسی یا ادعایی را با دادههای رسمی مقایسه کند.
– برای تقویت دقت AI، دولت باید دادههای عمومی (مثل آمار اقتصادی، سیاسی، قضایی یا سلامت) را بهصورت شفاف منتشر کند. این کار همراستا با تأکید بر شفافیت است.
– به جای تأکید بر استفاده از AI برای شناسایی و مجازات منتشرکنندگان اخبار جعلی یا خلاف، باید از آن برای اطلاعرسانی و آموزش استفاده شود. این رویکرد از خطر سانسور جلوگیری میکند. مثل برچسبگذاری محتوای مشکوک در پلتفرمها بهجای سانسور یا جرمانگاری. اتفاقا وجود خبر دروغ با برچسب دروغ نیز آموزندهتر از حذف آن است.
– همکاری با شرکتهایی مثل xAI یا گوگل برای استفاده از ابزارهای راستیآزمایی پیشرفته، با شرط حفظ استقلال و حریم خصوصی کاربران ایرانی، به ویژه برای تحلیل محتواهای فارسی.
پیشنهادهای این خواننده محترم منطقی و روشن است ولی به نظرم بعید است از سوی قانونگذاران ایرانی مورد توجه قرارگیرد، چون اگر چنین شود آنگاه خواهند دید که کاربران تندروی داخلی و براندازان خارج از کشور در شبکههای اجتماعی، بارها و بارها بیش از دیگران دروغ منتشر میکنند. با گروه اول که قصد مقابله نیست و به گروه دوم هم دسترسی قضایی ندارند. نتیجه ایجاد مشکل برای کاربران منطقی و مستقل و مسوول است.
«بنیامین نتانیاهو» نخستوزیر رژیم صهیونیستی مدعی شد که جنبش حماس به دنبال توافق نیست.
به گفته یک نماینده مجلس، پاکستانیها پیشنهاد ایجاد ناتوی اسلامی را با حضور ایران، پاکستان، عربستان و ترکیه مطرح کردند که تهران با این پیشنهاد موافقت کرده است.
تحلیلگر مسائل راهبردی و بین المللی بیان کرد: من از قول خود اسرائیلیها میگویم که آنقدر جاسوس در اسرائیل برای ایران کار میکرد که خود اسرائیلیها هفت-هشت ماه پیش گفتند ما یک ساختمان جدید برای جاسوسهایی داریم که برای ایران کار میکنند.
«لایحه اخیر لباسی نو بر تن همان اندیشه کهنه کنترلگری است. بنابراین لایحه مذکور برآمده از سطوح بالاتری است. یک بار اسم آن طرح صیانت است و بار دیگر لایحه مقابله با خلاف واقع است. اگر این لایحه پس گرفته شد، مانع و رافع این نیست که چند صباحی دیگر لایحه یا طرح یا هر برنامه دیگری ارائه نشود. شاید اینبار طبق تجربهای که انجمن روزنامهنگاران به آن اشاره میکند، هولناکی بیشتری در انتظار باشد.»
Δ