نامه‌ای برای جلوگیری از دیپ‌فیک‌ها؛ محدودیت برای هوش مصنوعی؟

نامه‌ای برای جلوگیری از دیپ‌فیک‌ها؛ محدودیت برای هوش مصنوعی؟


متخصصان هوش مصنوعی و مدیران صنعت، از جمله یکی از پیشگامان این فناوری، یوشوا بنجیو، در نامه‌ای سرگشاده خواستار افزایش قانون‌گذاری در زمینه ساخت دیپ‌فیک‌ها شده‌اند، به دلیل خطرات احتمالی برای جامعه. این نامه که توسط اندرو کریچ، یک پژوهشگر هوش مصنوعی در دانشگاه کالیفرنیا، برکلی، تهیه شده است، بر ضرورت ایجاد حفاظت‌هایی تاکید می‌کند زیرا هوش مصنوعی به سرعت در حال پیشرفت است و ساخت دیپ‌فیک‌ها را بسیار آسان‌تر می‌کند.

دیپ‌فیک‌ها، تصاویر، صداها و ویدئوهای واقعی اما ساختگی هستند که توسط الگوریتم‌های هوش مصنوعی ایجاد می‌شوند و پیشرفت‌های اخیر در این فناوری آن‌ها را بیش از پیش غیرقابل تمییز از محتوای ایجاد شده توسط انسان کرده است. در این نامه، که با عنوان “قطع زنجیره تامین دیپ‌فیک” منتشر شده، پیشنهادهایی در مورد نحوه قانون‌گذاری دیپ‌فیک‌ها ارائه شده است، از جمله جرم‌انگاری کامل پورنوگرافی کودکان دیپ‌فیک، مجازات‌های کیفری برای هر فردی که عمداً در ایجاد یا تسهیل انتشار دیپ‌فیک‌های مضر مشارکت کند و الزام شرکت‌های هوش مصنوعی به جلوگیری از ایجاد دیپ‌فیک‌های مضر توسط محصولاتشان.

تا صبح چهارشنبه، بیش از ۴۰۰ نفر از حوزه‌های مختلف از جمله دانشگاهی، سرگرمی و سیاست این نامه را امضا کرده‌اند. امضاکنندگان شامل استیون پینکر، استاد روانشناسی دانشگاه هاروارد، جوی بوئولاموینی، بنیانگذار لیگ عدالت الگوریتمی، دو رئیس‌جمهور سابق استونی، پژوهشگرانی از گوگل، دیپ‌مایند و یک پژوهشگر از OpenAI می‌شوند. از زمان رونمایی OpenAI از ChatGPT در اواخر ۲۰۲۲، که کاربران را با انجام مکالمه‌ای شبیه به انسان و انجام وظایف دیگر شگفت‌زده کرد، اطمینان از اینکه سیستم‌های هوش مصنوعی به جامعه آسیب نرسانند، اولویتی برای مقامات قانون‌گذاری بوده است.

منتخب کاربران