6 نکته از جلسه استماع سنای OpenAI

می 17, 2023 by بدون دیدگاه

سام آلتمن، مدیر عامل OpenAI برای شهادت در کمیته قضایی سنا سوگند یاد کرد.

سام آلتمن، مدیر عامل OpenAI برای شهادت در کمیته قضایی سنا سوگند یاد کرد.

ظاهراً یکی از قابلیت‌های خارق‌العاده هوش مصنوعی مولد، متحد کردن سیاستمداران، بخش عمومی و بخش خصوصی در تنظیم آن است.

ما امروز در جلسه کمیته قضایی سنا در مورد نحوه اداره هوش مصنوعی دیدیم. سام آلتمن، مدیر عامل OpenAI، کریستینا مونتگومری، افسر ارشد حریم خصوصی و اعتماد IBM، و گری مارکوس، استاد بازنشسته NYU در مقابل کمیته فرعی حریم خصوصی، فناوری و قانون شهادت دادند که اکنون که هوش مصنوعی مولد از جعبه پاندورا آزاد شده است، چه باید کرد. آلتمن باز و همکار بود و حتی از تنظیم ChatGPT و هوش مصنوعی مولد دفاع می کرد. اما به نظر می رسید که این یک اثر خلع سلاح بر کمیته فرعی داشت که بیشتر سوالات سافت بال می پرسید.

همچنین ببینید: OpenAI پلاگین های ChatGPT را برای کاربران پلاس عرضه می کند

این جلسه سه ساعته به خطرات زیادی که هوش مصنوعی مولد برای جامعه دارد و اینکه چگونه کشور ما می‌تواند انقلاب صنعتی بعدی را با موفقیت پشت سر بگذارد، پرداخت. متأسفانه، پرداختن به بسیاری از مسائل در یک محیط به این معنی بود که به سختی زمان برای بررسی نگرانی های رایج مانند جایگزینی شغل، قانون کپی رایت و اوه، بله، امنیت ملی وجود داشت. در اینجا نکات برجسته آمده است:

1. سخنان افتتاحیه سناتور بلومنتال شامل یک دیپ فیک بود

سناتور ریچارد بلومنتال جلسه استماع را با استعدادی دراماتیک با پخش صدای ضبط شده‌ای که در مورد ChatGPT صحبت می‌کرد، آغاز کرد. ضبط با استفاده از صدای سخنرانی های او ایجاد شد و اظهارات توسط ChatGPT ایجاد شد که از آن پرسیده شد که بلومنتال چگونه جلسه استماع را باز می کند. پیشرو بودن با دیپ فیک، با تأکید بر قابلیت‌های چشمگیر هوش مصنوعی و اینکه اگر کنترل نشود، چقدر خطرناک است، صدای بقیه شنوایی را تنظیم می‌کند.

2. کل موضوع جایگزینی شغل حل نشده باقی می ماند

یکی از نگرانی های اصلی در مورد ChatGPT و هوش مصنوعی مولد، مشاغلی است که با خودکارسازی وظایف جایگزین می شود. وقتی از آلتمن پرسیده شد که آیا این یک نگرانی است، نظر آلتمن این بود که هوش مصنوعی ممکن است جایگزین مشاغل شود اما مشاغل جدیدی ایجاد کند: “من معتقدم که مشاغل بسیار بیشتری در طرف دیگر وجود خواهد داشت و مشاغل امروزی بهتر خواهند شد.” مونتگومری اضافه کرد که مهمترین کاری که باید انجام دهیم این است که نیروی کار را برای مهارت های مرتبط با هوش مصنوعی از طریق آموزش و آموزش آماده کنیم.

اما این مسئولیت بر عهده چه کسی است ناگفته ماند. آلتمن گفت: «من فکر می‌کنم که این امر مستلزم مشارکت بین صنعت و دولت است، اما عمدتاً اقدام دولت برای کشف اینکه چگونه می‌خواهیم آن را کاهش دهیم.» به عبارت دیگر، این مشکل OpenAI نیست.

3. همه موافق هستند که هوش مصنوعی باید تنظیم شود

سناتور دیک دوربین سخنان خود را با اشاره به گفتگوی غیرمعمول همکاری بین بخش دولتی و خصوصی آغاز کرد. نمی‌توانم به یاد بیاورم که چه زمانی افرادی را داشته‌ایم که نماینده شرکت‌های بزرگ یا نهادهای بخش خصوصی بودند و از ما درخواست کردند که آنها را تنظیم کنیم.» درخواست مقررات ممکن است اغراق آمیز باشد، اما آلتمن و مونتگومری نشان دادند که با میل و گاه با اشتیاق به روی نظارت دولت باز هستند.

این فراتر از افعال عمومی بود. آلتمن گفت که او معتقد است بخش 230 در مورد هوش مصنوعی مولد اعمال نمی شود، به این معنی که شرکت هایی که این فناوری را ارائه می دهند باید مسئول باشند و باید یک چارچوب کاملاً جدید برای محتوای ایجاد شده توسط هوش مصنوعی مولد وجود داشته باشد.

این را می‌توان به عنوان نمونه‌ای موفق از کنترل‌ها و تعادل‌های دموکراتیک در کار تفسیر کرد، اما همچنین تأکید کرد که تهدید هوش مصنوعی چقدر جدی است – و شرکت‌هایی مانند OpenAI چقدر احساس نیاز به محافظت از خود در برابر مسئولیت می‌کنند.

مقررات به این بزرگی حتی ممکن است منجر به ایجاد یک آژانس فدرال جدید مانند سازمان غذا و دارو شود، چیزی که مارکوس پیشنهاد کرد. “نظر من این است که ما احتمالاً به یک سازمان در سطح کابینه در ایالات متحده نیاز داریم تا به این موضوع رسیدگی کنیم. و دلیل من برای آن این است که تعداد خطرات زیاد است، مقدار اطلاعاتی که باید به آن ادامه دهیم بسیار زیاد است. به تخصص فنی زیادی نیاز داریم، فکر می کنم ما به هماهنگی زیادی برای این تلاش ها نیاز داریم.”

ایده دیگری که در اطراف مطرح شد، صدور مجوز برای هوش مصنوعی مولد، مشابه صدور مجوز برای عملیات انرژی هسته ای بود.

4. اطلاعات نادرست یک نگرانی بزرگ است، به ویژه در آستانه انتخابات

یکی از موضوعات زیربنایی جلسه این بود که چگونه از اشتباهاتی که کنگره مرتکب شد با عدم پاسخگویی به شرکت‌های رسانه‌های اجتماعی برای تعدیل محتوا، که منجر به اطلاعات نادرست گسترده در انتخابات 2016 و 2020 شد، درس گرفت. پتانسیل هوش مصنوعی مولد برای ایجاد و انتشار اطلاعات نادرست یا مغرضانه در مقیاس بزرگ واقعی و قریب الوقوع است مگر اینکه اکنون به آن رسیدگی شود.

آلتمن گفت: “با توجه به اینکه سال آینده با یک انتخابات روبرو خواهیم شد و این مدل ها در حال بهتر شدن هستند. من فکر می کنم این یک منطقه قابل توجه نگرانی است.” او پذیرای «برچسب‌های تغذیه‌ای» درباره ماهیت و منبع محتوای تولیدی هوش مصنوعی از سوی اشخاص ثالث است، اما مارکوس معتقد است که ریشه این مشکل شفافیت و دسترسی به نحوه عملکرد الگوریتم است. “یکی از چیزهایی که من بیشتر در مورد GPT نگران هستم. چهار این است که ما نمی دانیم روی چه چیزی آموزش داده شده است، حدس می زنم سام می داند، اما بقیه ما نمی دانند. و آنچه در آن آموزش دیده می شود عواقبی برای آن دارد. اساساً تعصبات سیستم.”

5. سناتور مارشا بلکبرن عاشق گارث بروکس است و سناتور مازی هینونو عاشق BTS است.

اعضای کمیته نتوانستند در برابر این شانس مقاومت کنند تا کمی ساده‌تر به ماهیت جدی جلسه بیافزایند. سناتورهای کوری بوکر و جان اوسوف با خواندن یکدیگر خوش تیپ و درخشان، برومنس خود را به راه انداختند. سناتور پیتر ولش در مورد علاقه‌اش به جلسه اظهارنظری تحقیرآمیز کرد و گفت: “سناتورها به دلیل توجه کوتاهشان مورد توجه قرار می‌گیرند، اما من تمام این جلسه را پشت سر گذاشته‌ام و از هر دقیقه آن لذت برده‌ام.”

هنگامی که از آلتمن در مورد ابزار موسیقی خودکار OpenAI و قانون کپی رایت پرسید، بلکبرن در مورد مالکیت آهنگی که با سبک و صدای هنرمند مورد علاقه‌اش گارث بروکس ساخته شده است ابراز نگرانی کرد. هینونو به همان اندازه نگران آهنگ‌های دیپ‌فیک بود که شبیه گروه مورد علاقه‌اش BTS بود. علیرغم اینکه شنیدن نام خواننده مشهور موسیقی کانتری و حس کی پاپ در این زمینه چقدر عجیب بود، بلکبرن و هینونو نکات معتبری را در مورد مالکیت معنوی مطرح کردند.

6. امنیت ملی امروز آنقدر بزرگ است که نمی توان آن را پوشش داد

این جلسه سه ساعته آنقدر خطرات هوش مصنوعی مولد را پوشش داد که بلومنتال در سخنان پایانی خود فقط به تهدید آن برای امنیت ملی اشاره کرد و گفت: “منابع تهدید برای این ملت در این فضا بسیار واقعی و فوری هستند. ما نمی رویم. امروز با آنها برخورد کنیم، اما باید با آنها برخورد کنیم.”

این جلسه به طیف گسترده ای از مسائلی که هوش مصنوعی مولد می تواند تأثیر بگذارد، پرداخت: اشتغال، اطلاعات نادرست، مالکیت معنوی، حریم خصوصی، ایمنی، تعصب و تبعیض، اما این جلسه سه ساعته زمان کافی برای پرداختن به چگونگی تأثیر آن بر اقتصاد یا تهدیدات نبود. از طرف دشمنان جهانی

#نکته #از #جلسه #استماع #سنای #OpenAI