به نظر می رسید که کنگره در حین استماع واقعاً خطرات بالقوه هوش مصنوعی را درک کرده است

هوش مصنوعی روز بزرگ خود را در کاپیتول هیل پشت سر گذاشت.
سام آلتمن، که مدیر عامل شرکت مادر ChatGPT OpenAI است، و یکی از چهرههای مطرح در گفتمان فعلی هوش مصنوعی است، در جلسه حضور داشت. کمیته قضایی سناکمیته فرعی حریم خصوصی، فناوری و قانون برای اولین بار سه شنبه. اعضای کنگره آلتمن، و همچنین کریستینا مونتگومری، مسئول حریم خصوصی و اعتماد IBM، و گری مارکوس، متخصص هوش مصنوعی و استاد بازنشسته روانشناسی و علوم عصبی دانشگاه نیویورک را در مورد جنبه های متعدد هوش مصنوعی مولد، در مورد خطرات بالقوه و مقرراتی که در این فضا می تواند وجود داشته باشد، تحت فشار قرار دادند. شبیه.
و جلسه دادرسی به پایان رسید… در کمال تعجب خوب هستید؟
همچنین ببینید: Google Bard در جایی که من زندگی می کنم در دسترس نیست، بنابراین از ChatGPT خواستم به من کمک کند تا به آن دسترسی داشته باشم
میدونم باورش سخته حتی نوشتن این احساس عجیبی است، زیرا در طول سال ها جلسات متعدد کنگره را در مورد فناوری پوشش داده ام.
برخلاف تمام جلسات قبلی کنگره در رسانههای اجتماعی، به نظر میرسد اعضای کنگره درک کلی از خطرات احتمالی ناشی از هوش مصنوعی دارند. ممکن است هفتادسالهها اعتدال محتوای آنلاین را دریافت نکنند، اما مطمئناً مفهوم از دست دادن شغل به دلیل فناوری در حال ظهور را درک میکنند. بخش 230 ممکن است قانون نسبتاً گیجکنندهای برای قانونگذاران غیرمتخصص وب باشد، اما مطمئناً هنگام بحث درباره نگرانیهای بالقوه در مورد هوش مصنوعی با قوانین کپی رایت آشنا هستند.
نفس تازه دیگری از جلسه استماع هوش مصنوعی بیرون آمد: این یک بحث نسبتاً دو حزبی بود. شنیدهها در رسانههای اجتماعی غالباً به بحث و جدل بین دموکراتها و جمهوریخواهان بر سر موضوعاتی مانند اطلاعات نادرست و سانسور آنلاین تبدیل میشود.
بحثهای آنلاین پیرامون هوش مصنوعی ممکن است بر این موضوع متمرکز شودبیدار شدرباتهای چت و اینکه آیا مدلهای هوش مصنوعی باید قادر به بیان آن باشند تهمت های نژادی. با این حال، هیچ کدام از اینها در این جلسه وجود نداشت. به نظر میرسید که اعضای هر دو طرف صرفاً روی موضوع مورد بحث تمرکز کردهاند، که طبق عنوان جلسه، نظارت بر هوش مصنوعی: قوانین برای هوش مصنوعی بود. حتی سناریوی فرضی سناتور جان کندی (R-LA) که در آن توسعهدهندگان هوش مصنوعی تلاش میکنند جهان را نابود کنند، توسط کارشناسانی که به بحث درباره مجموعه دادهها و آموزش هوش مصنوعی پرداختهاند، در مسیر اصلی خود مانور داده شد.
شاید بزرگترین دلیلی که میگوید همه چیز به خوبی پیش رفته است که یک جلسه استماع فناوری کنگره میتواند نشان دهد: هیچ الگوی رفتاری وجود ندارد. ویروسی نشان می دهد که قانونگذاران ایالات متحده تا چه حد از تماس خارج شده اند. در آغاز دراماتیک جلسه، سناتور ریچارد بلومنتال (D-CT)، رئیس کمیته، صدای عمیقفک خود را در حال خواندن یک فیلمنامه تولید شده توسط ChatGPT پخش میکرد (دیپفیکهای صوتی از مدلهای هوش مصنوعی برای شبیهسازی صداها استفاده میکنند). از آنجا، روند رسیدگی تا انتها سازنده باقی ماند.
بله، وقتی مقایسه انجام می شود، نوار پایین است قبلی جلسات فنی و شنوایی کامل نبود. بخش عمده ای از مکالمه پیرامون هوش مصنوعی در حال حاضر نحوه چگونگی آن است خطرناک تکنولوژی است. بیشتر این تبلیغات مستقیم از صنعت است، تلاشی جدی برای بازاریابی قابلیتهای عظیم و سودآور هوش مصنوعی (به یاد داشته باشید که ارزهای دیجیتال چگونه در آینده خواهند بود و کسانی که پول خود را به فضا پرتاب نمیکنند «NGMI» یا «نه» هستند. موفق می شوی؟”). همچنین، قانونگذاران، طبق معمول، به نظر می رسد به طرز وحشتناکی برای اعضای صنعتی که به دنبال تنظیم مقررات طراحی آن مقررات هستند، باز هستند. و، در حالی که آلتمن با نیاز به مقررات موافق بود، ما همین موضوع را از انواع دره سیلیکون شنیدهایم، از جمله برخی از آنها که به گذشته نگاه میکردند، احتمالاً بازیگران بد نیت.
اما این استماع نشان داد که کنگره پتانسیلی برای اجتناب از اشتباهات مشابهی که با رسانه های اجتماعی مرتکب شده است وجود دارد. اما، به یاد داشته باشید، اگر نه بیشتر، پتانسیل زیادی برای آنها وجود دارد که همه چیز را خراب کنند.
#به #نظر #می #رسید #که #کنگره #در #حین #استماع #واقعا #خطرات #بالقوه #هوش #مصنوعی #را #درک #کرده #است