6 نکته از جلسه استماع سنای OpenAI

ظاهراً یکی از قابلیتهای خارقالعاده هوش مصنوعی مولد، متحد کردن سیاستمداران، بخش عمومی و بخش خصوصی در تنظیم آن است.
ما امروز در جلسه کمیته قضایی سنا در مورد نحوه اداره هوش مصنوعی دیدیم. سام آلتمن، مدیر عامل OpenAI، کریستینا مونتگومری، افسر ارشد حریم خصوصی و اعتماد IBM، و گری مارکوس، استاد بازنشسته NYU در مقابل کمیته فرعی حریم خصوصی، فناوری و قانون شهادت دادند که اکنون که هوش مصنوعی مولد از جعبه پاندورا آزاد شده است، چه باید کرد. آلتمن باز و همکار بود و حتی از تنظیم ChatGPT و هوش مصنوعی مولد دفاع می کرد. اما به نظر می رسید که این یک اثر خلع سلاح بر کمیته فرعی داشت که بیشتر سوالات سافت بال می پرسید.
همچنین ببینید: OpenAI پلاگین های ChatGPT را برای کاربران پلاس عرضه می کند
این جلسه سه ساعته به خطرات زیادی که هوش مصنوعی مولد برای جامعه دارد و اینکه چگونه کشور ما میتواند انقلاب صنعتی بعدی را با موفقیت پشت سر بگذارد، پرداخت. متأسفانه، پرداختن به بسیاری از مسائل در یک محیط به این معنی بود که به سختی زمان برای بررسی نگرانی های رایج مانند جایگزینی شغل، قانون کپی رایت و اوه، بله، امنیت ملی وجود داشت. در اینجا نکات برجسته آمده است:
1. سخنان افتتاحیه سناتور بلومنتال شامل یک دیپ فیک بود
سناتور ریچارد بلومنتال جلسه استماع را با استعدادی دراماتیک با پخش صدای ضبط شدهای که در مورد ChatGPT صحبت میکرد، آغاز کرد. ضبط با استفاده از صدای سخنرانی های او ایجاد شد و اظهارات توسط ChatGPT ایجاد شد که از آن پرسیده شد که بلومنتال چگونه جلسه استماع را باز می کند. پیشرو بودن با دیپ فیک، با تأکید بر قابلیتهای چشمگیر هوش مصنوعی و اینکه اگر کنترل نشود، چقدر خطرناک است، صدای بقیه شنوایی را تنظیم میکند.
2. کل موضوع جایگزینی شغل حل نشده باقی می ماند
یکی از نگرانی های اصلی در مورد ChatGPT و هوش مصنوعی مولد، مشاغلی است که با خودکارسازی وظایف جایگزین می شود. وقتی از آلتمن پرسیده شد که آیا این یک نگرانی است، نظر آلتمن این بود که هوش مصنوعی ممکن است جایگزین مشاغل شود اما مشاغل جدیدی ایجاد کند: “من معتقدم که مشاغل بسیار بیشتری در طرف دیگر وجود خواهد داشت و مشاغل امروزی بهتر خواهند شد.” مونتگومری اضافه کرد که مهمترین کاری که باید انجام دهیم این است که نیروی کار را برای مهارت های مرتبط با هوش مصنوعی از طریق آموزش و آموزش آماده کنیم.
اما این مسئولیت بر عهده چه کسی است ناگفته ماند. آلتمن گفت: «من فکر میکنم که این امر مستلزم مشارکت بین صنعت و دولت است، اما عمدتاً اقدام دولت برای کشف اینکه چگونه میخواهیم آن را کاهش دهیم.» به عبارت دیگر، این مشکل OpenAI نیست.
3. همه موافق هستند که هوش مصنوعی باید تنظیم شود
سناتور دیک دوربین سخنان خود را با اشاره به گفتگوی غیرمعمول همکاری بین بخش دولتی و خصوصی آغاز کرد. نمیتوانم به یاد بیاورم که چه زمانی افرادی را داشتهایم که نماینده شرکتهای بزرگ یا نهادهای بخش خصوصی بودند و از ما درخواست کردند که آنها را تنظیم کنیم.» درخواست مقررات ممکن است اغراق آمیز باشد، اما آلتمن و مونتگومری نشان دادند که با میل و گاه با اشتیاق به روی نظارت دولت باز هستند.
این فراتر از افعال عمومی بود. آلتمن گفت که او معتقد است بخش 230 در مورد هوش مصنوعی مولد اعمال نمی شود، به این معنی که شرکت هایی که این فناوری را ارائه می دهند باید مسئول باشند و باید یک چارچوب کاملاً جدید برای محتوای ایجاد شده توسط هوش مصنوعی مولد وجود داشته باشد.
این را میتوان به عنوان نمونهای موفق از کنترلها و تعادلهای دموکراتیک در کار تفسیر کرد، اما همچنین تأکید کرد که تهدید هوش مصنوعی چقدر جدی است – و شرکتهایی مانند OpenAI چقدر احساس نیاز به محافظت از خود در برابر مسئولیت میکنند.
مقررات به این بزرگی حتی ممکن است منجر به ایجاد یک آژانس فدرال جدید مانند سازمان غذا و دارو شود، چیزی که مارکوس پیشنهاد کرد. “نظر من این است که ما احتمالاً به یک سازمان در سطح کابینه در ایالات متحده نیاز داریم تا به این موضوع رسیدگی کنیم. و دلیل من برای آن این است که تعداد خطرات زیاد است، مقدار اطلاعاتی که باید به آن ادامه دهیم بسیار زیاد است. به تخصص فنی زیادی نیاز داریم، فکر می کنم ما به هماهنگی زیادی برای این تلاش ها نیاز داریم.”
ایده دیگری که در اطراف مطرح شد، صدور مجوز برای هوش مصنوعی مولد، مشابه صدور مجوز برای عملیات انرژی هسته ای بود.
4. اطلاعات نادرست یک نگرانی بزرگ است، به ویژه در آستانه انتخابات
یکی از موضوعات زیربنایی جلسه این بود که چگونه از اشتباهاتی که کنگره مرتکب شد با عدم پاسخگویی به شرکتهای رسانههای اجتماعی برای تعدیل محتوا، که منجر به اطلاعات نادرست گسترده در انتخابات 2016 و 2020 شد، درس گرفت. پتانسیل هوش مصنوعی مولد برای ایجاد و انتشار اطلاعات نادرست یا مغرضانه در مقیاس بزرگ واقعی و قریب الوقوع است مگر اینکه اکنون به آن رسیدگی شود.
آلتمن گفت: “با توجه به اینکه سال آینده با یک انتخابات روبرو خواهیم شد و این مدل ها در حال بهتر شدن هستند. من فکر می کنم این یک منطقه قابل توجه نگرانی است.” او پذیرای «برچسبهای تغذیهای» درباره ماهیت و منبع محتوای تولیدی هوش مصنوعی از سوی اشخاص ثالث است، اما مارکوس معتقد است که ریشه این مشکل شفافیت و دسترسی به نحوه عملکرد الگوریتم است. “یکی از چیزهایی که من بیشتر در مورد GPT نگران هستم. چهار این است که ما نمی دانیم روی چه چیزی آموزش داده شده است، حدس می زنم سام می داند، اما بقیه ما نمی دانند. و آنچه در آن آموزش دیده می شود عواقبی برای آن دارد. اساساً تعصبات سیستم.”
5. سناتور مارشا بلکبرن عاشق گارث بروکس است و سناتور مازی هینونو عاشق BTS است.
اعضای کمیته نتوانستند در برابر این شانس مقاومت کنند تا کمی سادهتر به ماهیت جدی جلسه بیافزایند. سناتورهای کوری بوکر و جان اوسوف با خواندن یکدیگر خوش تیپ و درخشان، برومنس خود را به راه انداختند. سناتور پیتر ولش در مورد علاقهاش به جلسه اظهارنظری تحقیرآمیز کرد و گفت: “سناتورها به دلیل توجه کوتاهشان مورد توجه قرار میگیرند، اما من تمام این جلسه را پشت سر گذاشتهام و از هر دقیقه آن لذت بردهام.”
هنگامی که از آلتمن در مورد ابزار موسیقی خودکار OpenAI و قانون کپی رایت پرسید، بلکبرن در مورد مالکیت آهنگی که با سبک و صدای هنرمند مورد علاقهاش گارث بروکس ساخته شده است ابراز نگرانی کرد. هینونو به همان اندازه نگران آهنگهای دیپفیک بود که شبیه گروه مورد علاقهاش BTS بود. علیرغم اینکه شنیدن نام خواننده مشهور موسیقی کانتری و حس کی پاپ در این زمینه چقدر عجیب بود، بلکبرن و هینونو نکات معتبری را در مورد مالکیت معنوی مطرح کردند.
6. امنیت ملی امروز آنقدر بزرگ است که نمی توان آن را پوشش داد
این جلسه سه ساعته آنقدر خطرات هوش مصنوعی مولد را پوشش داد که بلومنتال در سخنان پایانی خود فقط به تهدید آن برای امنیت ملی اشاره کرد و گفت: “منابع تهدید برای این ملت در این فضا بسیار واقعی و فوری هستند. ما نمی رویم. امروز با آنها برخورد کنیم، اما باید با آنها برخورد کنیم.”
این جلسه به طیف گسترده ای از مسائلی که هوش مصنوعی مولد می تواند تأثیر بگذارد، پرداخت: اشتغال، اطلاعات نادرست، مالکیت معنوی، حریم خصوصی، ایمنی، تعصب و تبعیض، اما این جلسه سه ساعته زمان کافی برای پرداختن به چگونگی تأثیر آن بر اقتصاد یا تهدیدات نبود. از طرف دشمنان جهانی