ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

سعید میرشاهی - متا و سایر غول‌های فناوری برای همکاری مشترک با یکدیگر، قبل از انتخابات در بریتانیا، ایالات متحده و اتحادیه اروپا گردهم آمده‌اند تا از سوءاستفاده از هوش مصنوعی جلوگیری کنند.

با این حال، نگرانی‌ها درباره دیپ‌فیک‌ها (جعل عمیق) همچنان ادامه دارد، زیرا کمپین‌های انتخاباتی در سراسر جهان با ویدئوهای دیپ‌فیک خدشه‌دار می‌شوند.

انتخابات در سراسر دنیا با ظهور دیپ‌فیک‌های هوش مصنوعی در حال تغییر است. در هند، نشانه‌های این موضوع در انتخابات محلی که از صدای رهبر فوت‌شده برای تاثیر بر رای‌دهندگان استفاده شد، مشاهده شده است. لذا اکنون مردم بریتانیا روی تاثیر اجتناب‌ناپذیر این دیپ‌فیک‌ها متمرکز شده‌اند.

یکی از وزیران ارشد دولت ریشی سوناک (نخست‌وزیر انگلیس) هشدار داده که ویدئوهای دیپ‌فیک تولیدشده توسط هوش مصنوعی، می‌توانند از سوی مردم برای تاثیرگذاری بر انتخابات عمومی آتی استفاده شوند.

جیمز کلورلی، وزیر کشور بریتانیا، در گفتگو با کارشناسان فناوری اطلاعات و روسای سیلیکون‌ولی، تاکید کرد که چگونه دیپ‌فیک‌های هوش مصنوعی می‌توانند در آستانه انتخابات ۲۰۲۴، طوفان ایجاد کنند.

به گفته وی، ویدئوهای دیپ‌فیک، اکنون در سراسر جهان، در حال اجرا هستند و انتخابات را مختل می‌کنند.

وزیر کشور به کاربران شبکه‌های اجتماعی هشدار داده که تحت‌تاثیر ویدئوهای تولیدشده توسط هوش مصنوعی در پلتفرم‌های رسانه‌های اجتماعی قرار نگیرند.

وی از احتمال حمله احتمالی توسط روسیه و ایران سخن گفت، زیرا به گفته وی، این کشورها به عنوان دشمنان بریتانیا می‌توانند به دنبال ایجاد اختلال در انتخابات باشند.

با این حال، ممکن است این، یک حمله با محوریت بریتانیا نباشد، زیرا نیمی از جهان، از جمله اتحادیه اروپا، ایالات متحده و بریتانیا، در سال 2024 به استقبال انتخابات می‌روند.

وزیر کشور به تایمز گفت که محتوای تولیدشده توسط هوش مصنوعی، در حال افزایش «نبرد ایده‌ها و سیاست‌ها» است و «در حوزه دیجیتال، دائما در حال تغییر و گسترش است.» به همین جهت وی، خواستار شفافیت و حفاظت از کاربران در زمینه محتوای تولیدشده با هوش مصنوعی مانند دیپ‌فیک‌ها شد.

کلورلی اظهار داشت: «سوالاتی که درباره محتوای دیجیتال و منابع محتوای دیجیتال پرسیده می‌شود، از پرسش‌هایی که در زمینه محتوا و منابع در باکس‌های گزارش، اتاق‌های خبر یا تبلیغات بیلبورد مطرح می‌شود، کم‌اهمیت‌تر نیستند.»

این نگرانی درباره دیپ‌فیک‌های هوش مصنوعی، همچنین توسط دیگر سیاستمداران بریتانیایی، خارج از خطوط حزبی نیز مطرح می‌شود، زیرا حزب کارگر و محافظه‌کار در مخالفت با آن متحد شده‌اند. اکنون صادق خان، شهردار لندن نیز با نزدیک شدن به انتخابات، زنگ خطر را علیه دیپ‌فیک به صدا درآورده است.

قبلا در سال 2023، یک ویدئوی تولیدشده توسط هوش مصنوعی در رسانه‌ها منتشر شد که در آن صادق خان در حال اظهارنظر درباره اعتراضات قبل از روز آتش‌بس بود. به گفته شهردار لندن، مقررات فعلی درباره دیپ‌فیک برای کنترل آن، بی‌تاثیر است.

اتفاق مشابهی در هند رخ داده است؛ جایی که رای‌دهندگان در انتخابات پارلمانی محلی در ایالت جنوبی تلانگانا، یک کلیپ هفت ثانیه‌ای از KT Rama Rao از حزب حاکم بهارات، راسترا سامیتی را دیدند که خواستار دادن رای به حزب مخالف کنگره شده بود. حزب اپوزیسیون ویدئوی دیپ‌فیک را در یک پست ایکس (توییتر) به اشتراک گذاشت و آن را در گروه‌های واتس‌اپ پخش کرد و با این کار، 500 هزار بازدید در حساب رسمی حزب در ایکس یا توییتر ثبت شد.

پیشتر در فوریه 2020، منوج تیواری، نماینده حزب حاکم هند، (بهاراتیا جاناتا)، ظاهرا اولین رهبر جهان بود که از دیپ‌فیک برای تبلیغات انتخاباتی استفاده کرد. او سه ویدئو را به سه زبان مختلف شامل هندی، هریانوی (از زبان‌های هندی) و انگلیسی ساخت تا با مخاطبان چندفرهنگی مختلف، ارتباط برقرار کند. از این میان، فقط ویدئوی هندی، معتبر و دو مورد دیگر، دیپ‌فیک بود.

در اینجا از هوش مصنوعی برای تغییر بیان، صدا و کلمات او، به منظور مطابقت با ویژگی‌های آن زبان‌ها و فرهنگ‌ها استفاده شد. همچنین اخیرا در تامیل نادو، ام کارونانیدی، وزیر ارشد سابق یکی از ایالت‌های جنوبی هند، که فوت شده، زنده شد تا یک ویدئوی دروغین ایجاد کند و بر رای‌دهندگان تاثیر بگذارد!

در حال حاضر، هند هیچ مقرراتی برای هوش مصنوعی به‌ویژه برای دیپ‌فیک‌هایی مانند این موارد ندارد. کارشناسان فکر می‌کنند که می‌توانند بر یکپارچگی کشور قبل از انتخابات تاثیر بگذارند، زیرا کمپین‌ها در حال گسترش هستند و مردم را در سطح منطقه تحت‌تاثیر قرار می‌دهند.

صادق خان، شهردار لندن، زمانی که خواستار یک قانون قوی در حوزه هوش مصنوعی شد، گفت که این، یک موضوع پلیسی درباره هوش مصنوعی نیست، بلکه یک قانون هوش مصنوعی است.

وی اظهار داشت: «نگرانی‌ من این است که این ویدئوها و فایل‌های صوتی دیپ‌فیک، در انتخابات یا رفراندوم‌های نزدیک، تفاوت ایجاد کند. دغدغه من این است که گاهی اوقات نمونه‌هایی وجود دارد که این نوع دیپ‌فیک‌ها می‌توانند منجر به اختلالات جدی شوند؛ به‌ویژه زمانی که احساسات در حال افزایش است.»

این موارد، در حالی است که دولت بریتانیا یک گزارش رسمی و سند دقیق درباره مقررات هوش مصنوعی در این کشور ارائه کرده است.

در حالی که جهان به سمت سال انتخابات پیش می‌رود، اکنون چندین غول فناوری گردهم آمده‌اند تا علیه سوءاستفاده از هوش مصنوعی مولد با یکدیگر همکاری کنند. شرکت‌هایی مانند OpenAI سازنده ChatGPT، متا، گوگل، مایکروسافت و دیگران در حال همفکری برای جلوگیری از استفاده فریبنده از هوش مصنوعی هستند. با این حال، غول‌های فناوری، تا کنون از ممنوع کردن ویدئوهای دیپ‌فیک سرباز زده‌اند.

اوایل فوریه 2024، ساتیا نادلا، مدیرعامل مایکروسافت گفت که فناوری کافی برای جلوگیری از دیپ‌فیک‌هایی مانند واترمارک کردن محتوای تولیدشده توسط هوش مصنوعی برای انتخابات ایالات متحده وجود دارد.

در همین حال، متا فاش کرد در حال راه‌اندازی روش اختصاصی برای مقابله با سوءاستفاده از هوش مصنوعی و کمپین‌های اطلاعات نادرست در اروپا، قبل از انتخابات پارلمانی اتحادیه اروپا در ماه ژوئن است. با این حال، نگرانی‌‌ها درباره نفوذ بر رای‌دهندگان همچنان وجود دارد. این غول فناوری، در حال کار با 26 حقیقت‌یاب مستقل است که به 22 زبان در سراسر اتحادیه اروپا کار می‌کنند تا اطلاعات نادرست را در پلتفرم خود اعلام کنند.

مارکو پانچینی، رئیس امور اتحادیه اروپا در شرکت متا گفت: «با نزدیک شدن به انتخابات، یک مرکز عملیات انتخاباتی را فعال خواهیم کرد تا تهدیدات احتمالی را شناسایی و اقدامات کاهش‌دهنده را در زمان واقعی اعمال کنیم.» (منبع:عصرارتباط)

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">