هوش مصنوعی مولد قدرت حکومتهاست
تاریخ انتشار: ۲۱ اسفند ۱۴۰۲ | کد خبر: ۳۹۹۳۱۶۱۵
به گزارش خبرگزاری علم و فناوری آنا، همایش «الزامات توسعه مدل زبانی بزرگ فارسی» با شعار «هوش مصنوعی، مولد قدرت حکومت ها» توسط ستاد توسعه فناوری های هوش مصنوعی و رباتیک معاونت علمی ۲۰ اسفندماه در محل پژوهشگاه ارتباطات و فناوری اطلاعات برگزار شد.
بهروز مینایی، دبیر ستاد توسعه فناوری های هوش مصنوعی و رباتیک معاونت علمی، فناوری و اقتصاد دانشبنیان ریاست جمهوری، به سیر تطور فناوری هوش مصنوعی تا به امروز پرداخت و گفت: در دهه های 1970 تا ۱۹۸۰ «سیستمهای خبره» (Expert systems)، فناوری غالب در دنیای «هوش مصنوعی» بود که به عنوان یک پایگاه دانشی عمل می کرد و برآمده از تلاش های محققان بود که اساسا کاری به حوزه تولید نداشت و بیشتر در پی تشخیص بود.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
به گفته وی در ۱۹۹۰ گام مهمی در حوزه هوش مصنوعی برداشته شد و «داده کاوی» به میدان آمد. در این نسل از فناوری های هوش مصنوعی، دیگر نیازی نبود که داده ها از یک متخصص گرفته شود و افراد تنها از رهگذر دادهها میتوانستند به یک الگو برسند.
مینایی، تفاوت «سیستمهای خبره» با سیستمهای «دادهکاوی» را در میزان دقت آنها دانست و گفت: سیستمهای خبره از دقت بالاتری در مقایسه با سیستم های داده کاوی برخوردارند، اما در مقابل، دادهکاویها، توان کار روی داده های سنگین را دارا هستند.
وی در ادامه به «سیستمهای یادگیری عمیق» اشاره کرد و گفت: این نوع سیستم ها در شناخت تصاویر به اندازه انسان توانایی دارند و میتوانند لایههای مختلف از شبکه های عصبی را ایجاد کنند.
به گفته وی در فاصله ۲۰۱۲تا ۲۰۱۸ «سیستم مدلهای زبانی» طراحی شد، این سیستم ها، می توانند رابطه یک کلمه را در بستر اطرافش ببینند و بردارها را با هم نسبت سنجی کنند، و این نسبت سنجی ها می تواند درک مطلب را در این سیستم ها عمیق تر کند.
مینایی، مزیت نسل جدید سیستمهای هوش مصنوعی را در مقایسه با گذشته، محدود نبودن توان آنها به یک دامنه خاص و افزایش توان افقی آنها دانست که در مدارهای معنایی و درک مطلب از اهمیت بالایی برخوردار است.
وی با بیان اینکه LLM ها سوگیری خاصی را از نظر فرهنگی و ارزشی ایجاد میکنند، تصریح کرد: یک نوع پلورالیسم عقیدتی و اجتماعی بر دنیای استفاده از LLM ها حاکم است و بنا بر نوع پرسشی که در آنها طرح شود، پاسخ های متفاوتی ارائه خواهند کرد.
از این رو، به باور مینایی، مهمترین سوگیری استفاده از LLMها، سوگیری «داده» است و در این فضا، حکمرانی داده، یک ضرورت است و هر کشوری که داده بیشتری داشته باشد از قدرت بیشتری برخوردار است و به همین دلیل ما باید LLM بومی خودمان را داشته باشیم.
دبیر ستاد توسعه فناوری های هوش مصنوعی و رباتیک اضافه کرد: کاری را که ستاد توسعه اقتصاد دانش بنیان دیجیتال معاونت علمی، فناوری و اقتصاد دانشبنیان ریاست جمهوری پایه گذاری کرد و ما هم ادامه آن را سرلوحه خود قرار داده ایم، تولید داخلی LLM است و این جلسه هم برای رونمایی از اولین ورژن با پیکره mistrial 7 میلیاردی و به حجم ۳۵ میلیارد توکن برگزار شده است. این پیکره با بهرهگیری از حدود یک میلیون و ۴۰۰ پرسش و پاسخ حقوقی می تواند پاسخ های صحیح در خصوص سوالات حقوقی ارائه کند.
انتهای پیام/
منبع: آنا
کلیدواژه: معاونت علمی فناوری و اقتصاد دانش بنیان ریاست جمهوری دانش بنیان رباتیک هوش مصنوعی AI فناوری های هوش مصنوعی ستاد توسعه داده کاوی سیستم ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت ana.press دریافت کردهاست، لذا منبع این خبر، وبسایت «آنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۹۳۱۶۱۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
آخرین قوانین کشورها برای مقابله با خطرات هوش مصنوعی
خبرگزاری علم و فناوری آنا؛ توسعه هوش مصنوعی در سال های اخیر با سرعت زیادی انجام شده است و این روزها به کمک این فناوری می توان تقریبا تمام فعالیت های روزانه و حتی برخی از مشاغل که انجام آنها به صورت دستی زمان زیادی نیاز داشت را در کسری از ثانیه انجام داد. اما این فناوری در کنار تمام فوایدی که دارد در صورت از کنترل خارج شدن یا مورد سوء استفاده گرفتن توسط برخی افراد میتواند باعث ایجاد فاجعه شود تا حدی که ایلان ماسک مالک تسلا و اسپیس ایکس این فناوری را خطرناکتر از بمب اتمی اعلام کرده است.
همزمان با روند توسعه هوش مصنوعی در جهان کشورها نیز برای حفظ امنیت فضای سایبری خود تصمیم به وضع قوانین خاصی برای هوش مصنوعی گرفتند؛ از آنجایی که اکثر این قوانین در اوایل راه اندازی فناوری هوش مصنوعی تصویب شده بود و با توجه به پیشرفت این فناوری بسیاری از قوانین اثرگذاری لازم را نداشت، برخی از کشورها تصمیم به وضع قوانین جدیدی برای این فناوری گرفتند.
ایتالیا
چند روز پیش بود که دولت ایتالیا اعلام کرد مجازات سوء استفاده از هوش مصنوعی در این کشور سنگینتر خواهد شد. بر اساس پیش نویس لایحه قانون جدید این کشور، دولت ایتالیا در حال بررسی برای بالا بردن مجازات جرائم سایبری به خصوص روی هوش مصنوعی است.
در این پیش نویس اعلام شده مجازاتهایی برای تقلب در بازار با استفاده از ابزارهای هوش مصنوعی در نظر گرفته شده و مستقیما اعلام شده از این فناوری برای پولشویی نیز دارای مجازات بسیار سنگینی است. همچنین در لایحه گفته شده جریمههایی برای نقض قانون کپی رایت با کمک هوش مصنوعی تعیین و تا ۳ سال حبس برای مجرمانی که از هوش مصنوعی برای ایجاد دیپ فیک استفاده کنند، مشخص شده است.
اتحادیه اروپا
اتحادیه اروپا همواره دغدغه مدیریت و کنترل هوش مصنوعی را داشته و چندین بار قوانین به خصوصی را در این زمینه به تصویب رسانده است. به تازگی نیز این اتحادیه قوانین جدیدی را برای کنترل هوش مصنوعی به تصویب رسانده است که شامل شفافیت سیستمهای هوش مصنوعی، مدیریت هوش مصنوعی پرخطر، محدودیتهای کاربردی هوش مصنوعی، محدودیت در نظارت بیومتریک و محدودیت در نظارت بیومتریک از جمله بندهای آن است.
اتحادیه اروپا در این قانون به طور مستقیم مشخص کرده که توسعه دهندگان هوش مصنوعی باید اطلاعات واضح از نحوه فعالیت هوش مصنوعی طراحی شده توسط آنان را به اتحادیه اروپا ارائه دهند. علاوه بر این اتحادیه اروپا در قوانین جدید خود لزوم نظارت بیشتر بر نحوه فعالیت هوش مصنوعی را اعلام کرده و برخی از هوش مصنوعی ها را با عنوان پرخطر نام گذاری خواهد کرد که به این ترتیب نظارت بر آن ها چند برابر خواهد شد.
سازمان ملل
نگرانی درباره فناوری هوش مصنوعی به سازمان ملل هم رسده و این سازمان در اوایل فروردین ماه سال جاری قطعنامهای را به تصویب رسانده و محبوبیت این قطعنامه تا حدی بود که سازمان ملل بدون رای گیری آن را به تصویب رساند و 120 کشور عضو سازمان ملل از این قطعنامه حمایت کردند.
بر اساس قطعنامه به تصویب رسیده در سازمان ملل، از کشورهای عضو سازمان ملل و سایر کشورها خواسته شده است که از استفاده ازهوش مصنوعی ناسازگار با قوانین بینالمللی حقوق بشری خودداری کنند. بهعبارتی همان حقوق اساسی که افراد در سراسر جهان از آن برخوردار هستند، باید در بخش دیجیتال نیز دنبال و از آن محافظت شود.
انگلستان
انگلیس به طور مستقیم قوانین جدیدی را برای مدیریت هوش مصنوعی به تصویب نرسانده است اما بر اساس اعلام موسسه تحقیقات سیاست عمومی این کشور حدود 11 درصد از وظایف کارکنان انگلستانی توسط هوش مصنوعی انجام می شود و در صورت ادامه استفاده از هوش مصنوعی با همین رویه، احتمال افزایش این رقم تا 60 درصد وجود خواهد داشت و به این ترتیب حدود 8 میلیون شغل در خطر نابودی قرار خواهند گرفت. به این ترتیب دولت انگلستان به طور جدی به دنبال وضع قوانین سختگیرانه ای برای کنترل هوش مصنوعی در کشور خود است.
چین
کشور چین یکی از کشورهای پیشتاز در زمینه تدوین قانون برای هوش مصنوعی بوده و همواره سعی کرده اتس با بروزرسانی قوانین این حوزه قوانین خود را نیز بروز کند. در حال حاضر در کشور چین هوش مصنوعی مولد، براساس الگوریتمهایی که میتوانند برای تولید محتوای جدید از جمله صوت، کد، تصویر، متن، شبیهسازی و ویدیو استفاده شوند، توصیف شده است.
دولت چین معتقد است پیشرفتهای فناوری در این حوزه میتواند نحوه اندیشه مردم درباره تولید محتوا را شدیداً تغییر دهد و برای این صنعت نیز قوانین خاصی را مدنظر خود قرار داده که هنوز به طور رسمی منتشر نشده است اما برخی منتقدان ایم حوزه بر این باورند که قوانین چین بسیار سختگیرانه خواهد بود و در برخی موارد استفاده از هوش مصنوعی خطرناک در این کشور را به طور کامل ممنوع خواهد کرد.
آمریکا
در آمریکا نیز خطرات از کنترل خارج شدن هوش مصنوعی وجود دارد و جینا رایموندو، وزیر بازرگانی ایالات متحده آمریکا و میشل دونلان، وزیر فناوری انگلیس، پس از تعهدات اعلام شده در نشست ایمنی هوش مصنوعی در بلچلی پارک در ماه نوامبر سال گذشته میلادی یادداشت تفاهمی را در واشنگتن امضا کردند تا به طور مشترک آزمایش مدل هوش مصنوعی پیشرفته را توسعه دهند.
دونلان نیز افزود: این نخستین توافق در نوع خود در سراسر جهان است. هوش مصنوعی در حال حاضر یک فناوری خارقالعاده برای عموم مردم جامعه است و پتانسیل زیادی برای مقابله با برخی از بزرگترین چالشهای جهان دارد، اما به شرطی که بتوانیم این خطرات را کنترل کنیم.
انگلیس و ایالات متحده قصد دارند حداقل یک تمرین آزمایشی مشترک را بر روی یک مدل در دسترس عموم انجام دهند و در حال بررسی تبادل پرسنل بین مؤسسهها هستند. هر دو در تلاشند تا مشارکتهای مشابهی با سایر کشورها برای ارتقای ایمنی هوش مصنوعی توسعه دهند.
کلام پایانی
به طور کلی تمام کشورهای جهان از خطرات هوش مصنوعی اطلاع دارند و تقریبا تمام آن ها در این حوزه قانون گذاری کردهاند ای خداقل با تصویب لایحه هایی تا زمان تصویب قانون این فناوری را تحت کنترل قرار دادهاند؛ اما در کشور ما تاکنون مصوبه یا قانونی منتشر نشده است و مشخص نیست متولیان این حوزه یعنی شورای عالی فضای مجازی چه زمانی قصد ورود و مدیریت توسعه این فناوری را خواهد داشت.
بسیاری از منتقدان بر این باور هستند که هوش مصنوعی مانند اینترنت و شبکه های اجتماعی نیست که بتوان پس از گستردگی استفاده در میان کاربران روی آن مدیریت داشت و باید پیش از همه گیر شدن استفاده از آن وضعیت این فناوری را مشخص کرد.
انتهای پیام/