Web Analytics Made Easy - Statcounter
به نقل از «خبرگزاری صدا و سیما»
2024-04-27@08:46:28 GMT

تهدیدها و فرصت های هوش مصنوعی در جهان

تاریخ انتشار: ۱۲ شهریور ۱۴۰۲ | کد خبر: ۳۸۶۰۷۲۵۷

به گزارش خبرگزاری صدا و سیما، آقای مهندس فانی دبیر کارگروه هوشمند سازی معاونت علمی، آقای دکتر عاشری معاون ستاد توسعه هوش مصنوعی و رباتیک معاونت علمی، دکتر پور اسماعیل کارشناس فناوری اطلاعات مرکز پژوهش‌های مجلس و آقای دکتر سلجوقی کارشناس فناوری اطلاعات در خصوص تهدیدها و فرصت های هوش مصنوعی در جهان با شبکه خبر در برنامه گفتگوی ویژه خبری گفت و گو کرده اند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!



مقدمه: در خصوص تهدید‌ها و البته برخی از فرصت‌هایی که هوش مصنوعی با توسعه خودش در جهان به وجود آورد داریم صحبت می‌کنیم و در مقابل این تهدید‌ها باید چه تمهیداتی اندیشیده شود در خدمت جناب آقای مهندس فانی هستیم دبیر کارگروه هوش‌مند سازی معاونت علمی آقای مهندس مهندس داشتند برخی از تهدید‌ها را عنوان می‌کردند به دو قسمت تقسیم کردند تهدید‌های کوتاه مدت و بلندمدت در کوتاه‌مدت ابتدا به آن شغل اشاره کردید از بین رفتن مشاغل.
فانی: به هر حال خدمتتان عرض می‌کردم که مهم‌ترین بحث الان آن چیزی که مبتلا به جامعه هست بحث این هست که اشتغال‌های مختلف این فناوری با توجه به ماهیتی که دارد و یک فناوری برهم زن می‌تواند تحت تأثیر قرار بدهد کما اینکه بعضا نگرانی‌هایی در جامعه هنرمندان، جامعه روزنامه‌نگاران، خبرنگاران این‌ها می‌توانیم ببینیم که با توسعه حالا آن روبات‌ها محاوره‌ای این نگرانی ایجاد شده در واقع، نکته بعدی بحث مربوط به نگرانی‌های امنیتی هست که برای این قضیه متصور است به هر حال یک زمانی اگر کسی یک نیت بدخواهانه‌ای داشت و می‌خواست این را اعمال کند کاری که انجام می‌داد این بود که می‌آمد مثلاً باید دانش خیلی بالایی می‌داشت و آن‌ها را انجام می‌داد تا مثلاً عمر حالا نفوذی که می‌خواست انجام بدهد از نظر امنیتی را انجام بدهد ولی الان جوری شده که تمام این این‌ها را خود هوش مصنوعی می‌شود گفت که می‌توانه توسعه بدهد انجام بدهد البته من باز هم داخل پرانتز بگویم فرصت‌های بسیار زیادی دارد و الان ما داریم فقط به تهدیدات این قضیه نگاه می‌کنیم.
سوال: در ادامه این برنامه تهدید‌ها رو داریم می‌گوییم، چون یکی از موضوعات روز جهان شده و داریم به آن می‌پردازیم در کوتاه مدت‌ها موردی مانده؟ تیتروار بفرمایید؟
فانی: نقض حریم خصوصی هستش که بعضاً به وجود می‌آید، بحث این هست که ممکن ناکارآمد باشد آن مدل زبونی به‌خاطر اینکه ورودی دیتا داده‌هایی که قرار است ورودی داشته باشد ممکن است که داده‌های دقیقی نباشد و این باعث شود که آن دقت کافی و لازم را نداشته باشد عدم شفافیتی هست که بر اساس این که فعل حاضر ادراک وجود ندارد برای هوش مصنوعی این عدم شفافیت را می‌تونیم مبتلا بهش نگاه کنیم تبعیضی هست که ایجاد می‌کند و می‌شود گفت که شکاف طبقاتی را می‌تواند ایجاد کند یعنی باز هم به نکته اول برمی‌گردیم که ممکن اشتغال را بهم بزند و این باز هم یک شکاف طبقاتی را منجر شود و حتی در موضوعیت قبلی که بحث دیتاست‌ها و آن دادگان اصلی که از ورودی این هست اگر یک قشر خاصی از همین ابتدا باهاش کار کنند و هوش مصنوعی چیزی که یاد می‌گیرد براساس همان و و روزی‌های قبلی هست که اولین افراد توانستند بهش ورود پیدا کنند لذا این ایجاد شکاف طبقاتی را می‌تواند متصور باشیم.
سوال: که قطعا وجود این شکاف طبقاتی می‌تواند خودش تهدید‌های دیگری را باز هم با خودش بیاورد.
فانی: یعنی این سلسله مراتبی هست زنجیره‌ای هست نوین بار میرود جلو و در آخر هم می‌توانم به بحث‌های اخلاقی و موضوعات ذیل مثلاً تقلب عمیق به قولی گفتنی می‌شود گفت که صوت و تصویر و ویدئو را می‌تواند تقلید بکند و هر روز قابلیت این را دارد و توسعه پیدا می‌کند این‌ها می‌شود گفت کوتاه مدت‌هایی هست که همین الان هم مبتلا به هستیم که مثلاً پنج ده سال آتی.
سوال: آقای مهندس پیش از اینکه سراغ بلندمدت برویم یک گزارش همکاران من آماده کردند گزارش را با هم ببینیم ادامه بحث را خواهیم داشت، جناب آقای دکتر عاشری معاون ستاد توسعه هوش مصنوعی و رباتیک معاونت علمی هم روی یک خط با ما ارتباط تصویری داریم سلام عرض می‌کنم خدمت شما سلام وقتتون بخیر شبتون بخیر باشد آقای دکتر گزارش رو با هم دیدیم و بحث اولاً با آقای مهندس فانی صحبت کردیم در مورد تهدید‌های اولیه صحبت کردیم و برخی هایش را برشمردند در خصوص اینکه چه تمهیداتی برای مقابله با این تهدیدات اولیه اندیشیده شده می‌توانیم صحبت کنیم آیا سیاست‌گذاری در این زمینه انجام شده؟
عاشری: خیلی خوشحالم که در خدمت شما هستم من به شخصه اعتقادم بر این هست که ما در ایران و در حال حاضر فرصت‌های هوش مصنوعی نسبت به تهدیداتش برای ما بیشتر است و ما در فازی هستیم که در واقع این فرصت‌ها خیلی پررنگ‌تر است و در این مرحله ما هستیم قطعاً فرصت‌های بیشتر، چون به هر حال ما با چالش‌های متعددی روبه‌رو هستیم که هوش مصنوعی می‌تواند به عنوان یک فن آوری پیش ران به ما کمک بکند و در واقع کشور را با یک شتاب خیلی بالایی به جلو ببرد، اما حالا مثال هایش را هم چندتا تا می‌زنم تا در فرصت‌های بعدی، ما ببینید ما به زودی بحث پیری جمعیت را خواهیم داشت آن جا دستیار‌های مراقبت روبات‌های مراقبت می‌توانند خیلی کمک کنند، بحث چالش‌های آب و کشاورزی را داریم هوش مصنوعی می‌تواند راندمان در واقع مصرف.
سوال: آقای دکتر عذرخواهی می‌کنم از شما، اما در خصوص فرصت‌هایی که هوش مصنوعی صحبت خواهیم کرددر ادامه اول می‌خواهیم در خصوص تهدیدات را گفتیم تمهیدات را می‌خواهیم بشنویم از زبان شما به هر حال سیاست‌هایی اندیشیده شده؟
عاشری: بله ببینید در حوزه تهدیدات خوب ما چند تا تهدید داریم که در واقع عمده تهدیدات هستند یکی بحث که خوب خیلی عموم مردم هم راجبش دغدغه‌مند هستند بحث‌های در واقع حذف مشاغل هست و اینکه امنیت شغلی مردم چطور خواهد بود خوب نگاه کنید اینجا خیلی مهم است که ما در واقع از فناوری بتوانیم در کشور به درستی استفاده بکنیم و دولت و حکومت بتواند وظیفه تنظیم گری خودش را به خوبی انجام بدهد اگر دولت و حکومت بتواند وظیفه تنظیم گری را به خوبی انجام بدهد ما خیلی خوب می‌توانیم در واقع این فناوری را سوار شویم در واقع و با تمهیداتی که می‌اندیشیم هدف گذاری کنیم مشاغلی یا آن در واقع کار‌های تکراری که با طبیعت انسان سازگار نیست و خسته کننده است آن‌ها را حذف کنیم حجم و حجم فشار کاری افراد رو کم بکنیم و افراد در واقع هوش مصنوعی بیاید کمک شان بکند یک بخشی از کار‌ها را هوش مصنوعی انجام بدهد 
و بخش مهم‌تر و حساس‌تر کار‌ها را در واقع اپراتور‌ها یا نیرو‌های انسانی انجام بدهند و کما اینکه نیرو‌های انسانی هم نظارت داشته باشند حتی در آن بخشی که هوش مصنوعی دارد کار می‌کند.
سوال: بنابراین پس این راه کار‌ها در مقابل این هست که می‌تواند برخی از شغل‌ها را از بین ببرد درست است؟
عاشری: بله دقیقاً یعنی ما اگر این را مهار بکنیم این فناوری را اگر مهار نکنیم قطعاً صرفاً یک فن آوری خواهد بود که به همان طوری که آقای مهندس فانی فرمودند منجر به شکاف طبقاتی بیشتر و در واقع ثروت‌اندوزی ثروتمندان خواهد شد، اما اگر دولت، البته دولت که عرض می‌کنم قوای مختلف از قوه مقننه و مجریه و قضاییه این‌ها بتوانند در واقع قانونگذاری کنند ما فناوری را در دست بگیریم و بتوانیم خوب ما مهارش کنیم و بهینه استفاده می‌کنیم به نظر من بحث تهدید در واقع مشاغل قابل مدیریت کردن هست و چه بسا منجر به این خواهد شد که کیفیت زندگی مردم بالا برود.
سوال: یک مورد دیگری هم که اشاره شد عدم شفافیت بود در این مورد هم راهکاری وجود دارد؟
عاشری: ببینید ما یک سری در واقع ترم‌هایی هست در حوزه در واقع هوش مصنوعی اخلاق‌مدار که دنیا نه هنوز هم که در واقع داریم صحبت می‌کنیم روی این به جمع‌بندی نرسیده و بیشتر در فاز توسعه و تحقیق است که یک در واقع سیستم هوشمند اخلاق مدار چطور چه ترم‌ها و چه محدودیت‌هایی را رعایت کند خوب ما الان بحث‌هایی مثل توضیح پذیری، شفافیت عدم سوگیری، در واقع گوناگونی این‌ها ترم‌هایی هست که ما برای سیستم‌های هوشمند داریم در دنیا دارد کار می‌شود ما هم هم داریم کار می‌کنیم الان در سند ملی هوش مصنوعی که در کشور دارد تدوین می‌شود بودجه این دغدغه‌ها و در واقع ارزش‌های مربوط لحاظ شده و این موضوعی هست که دغدغه ما هم هست ان‌شاءالله ما هم در ستاد داریم تلاش می‌کنیم که ان‌شاءالله این مد مد نظر قرار بگیرد.
سوال: ان‌شاءالله لطفا همراه ما باشید در ادامه بنده چند سوال دیگر هم از شما دارم آقای مهندس فانی آقای دکتر عاشری اشاره کردند به تنظیم گردی که باید انجام شود در این زمینه هم می‌توانید صحبت بکنید و لزوم تنظیم گری هم در این زمینه؟
فانی: ببینید یک نکته‌ای که وجود دارد من این نکته مهمی هست بگویم خدمتتان می‌گوید که حس ناامنی خیلی بدتر از خود ناامنی هست ما نباید نسبت به فناوری بترسیم و و باید این را بشناسیم یعنی بشناسیم و آگاه باشیم که ما مثلاً بحث پیام رسان‌ها اگر که نبود و ما نمی‌دانستیم که چه تهدیدی می‌تواند مترتب باشد یعنی اول بایستی ما یک نوری بیندازیم ببینیم تو دستمان بیاید فناوری که چه چیزی هست و بعدش هموان‌طور که آقای دکتر عاشری بزرگوار فرمودند ما بایستی بتوانیم این را وقتی که فهم کردیم و الان تو در لایه‌ای نیستیم که خیلی تهدیدات جدی باشد و ما را خیلی بخواهد اذیت بکند و این‌ها ولیکن باید دید داشته باشیم نسبت به تنظیم گری، تنظیم گری یک نقطه خیلی حساسی دارد که اگر که ما این را پیچش را خیلی سفت کنیم باعث می‌شود که جا بمونیم از فن فناوری نتوانیم توسعه بدهیم اگر که رها کنیم ممکن است از آن طرف باعث یک سری از ناکارآمدی‌هایی بشود.
سوال: پس در حقیقت اصلاً حقیقت آگاه بودن از این موضوع و اقدام بموقع کردن درست می‌تواند جلوگیری کنداز خطرات احتمالی؟
فانی: الان وقتی هست که ما باید به فکر توسعه باشیم به نوعی خوب چرا که، چون که جا نمانیم به عنوان مثال می‌گویم خدمت شما مثلا فناوری تقلب عمیق دو تا ایجنت اصلی دو تا موتور اصلی دارد این فناوری که از می‌آیند همدیگر را چی‌کار می‌کنند یعنی همان که دارد تقلب را ایجاد می‌کند یک موتور دیگر چک می‌کند که آیا این تقلب قابل تشخیص است یا نه و اگر باشد دوباره گزارشش را می‌دهد به آن بانک این را مثلا ممکن است کشور دیگری توسعه بدهد ولی ما اگر که توسعه ندهیم و باهاش درگیر نشویم نمی‌توانیم آن قسمت تشخیص دهنده‌اش ر بتوانیم حتی بهش برسیم و ارزیابی داشته باشیم.
سوال: اجازه بدهید این بحث را باز بکنیم جناب آقای سلجوقی با ما هستن کارشناس فناوری اطلاعات آقای دکتر سلام عرض می‌کنم خدمت شما شبتان بخیر باشد تا انیجا ما در خصوص برخی از تهدید‌ها و تمهیداتی که در مقابل این تهدید‌ها باید اندیشیده شود صحبت کردیم البته به موضوع تنظیم گری هم اشاره کردیم نظر شما در خصوص هوش مصنوعی و تهدید‌هایی که وجود دارد و جهان هم در خصوص آن دارند صحبت می‌کنند و اقداماتی انجام می‌دهند چیست؟ 
سلجوقی: من حقیقتش خیلی به این تهدید‌ها اعتقاد ندارم و معتقد هستم که هر فناوری که می‌آید درست است که اشتغال را ممکن است کم کند یا یک سری از اشتغال‌ها را از بین ببرد، ولی در نتیجه یک جابجایی اشتغال خواهیم داشت نمونه‌اش وقتی موقع که ماشین آمد درشکه رفت کنار، خوب ما مواجه شدیم با تغییر فرهنگ تغییر شغل که خوب از درشکه چی به رانندگی تغییر پیدا کرد و این به نظر من تهدیدات قابل مدیریت کردن هست.
سوال: چطور؟
سلجوقی:از جمله مثلا همین بحث داده‌های نادرست الان داده‌های نادرست را با یک بازی بازسازی کاملاً این‌ها را می‌شود مدیریت کرد و حل کرد بحث عدم شفافیت را اتفاقا با همین بازی بازسازی می‌شود کنترلش کرد اتفاقا نوع تصمیم‌هایی که تهدید می‌شود گرفت نادیده انگاری به هوش مصنوعی برای مثلاً برای تفریح ساده ما باید صد‌ها هزار مگا بایت داده را در لحظه تحلیل کنیم خوب طبیعتاً مغز ما دیگر به بهترین آدم‌ها چند مگابایت بیشتر را نمی‌تواند تأمین کند بعد با صد‌ها هزار مگا بایت اصلا قابل قیاس نیست طبیعتا اگر ما همین هوش مصنوعی را نادیده بگیریم به نظر می‌آید که این خودش بزرگ‌ترین تهدید است و جالب اینجاست که خود غربی‌ها که شعار و علمدار این تهدید شدند به دنبال من فکر می‌کنم دور کردن کشور‌های جهان سومی هستند از این فناوری که احتمالاً یک مقدار دست آن‌ها را به نظر من رو خواهد کرد در این تصمیم‌گیری‌ها و خیلی از مواردی که این‌ها نقشه می‌کشند برای کشور‌های جهان سوم که استثمارشان کنند و تحت سلطة خودشان نگه دارند این‌ها از بین خواهد رفت.
سوال: شما فرمودید که پس در مقابل تهدید‌ها می‌توانیم راهکار‌هایی داشته باشیم که توسعه هوش مصنوعی در کشور استفاده کنیم؟
سلجوقی: بله دقیقا.
سوال: آقای مهندس فانی نظر شما چیست؟ آقای دکتر می‌فرمایند که تهدیدی وجود ندارد؟
فانی: من می‌خواهم وام بگیرم از صحبت‌های آقای دکتر عاشری و همچنین دکتر سلجوقی عزیز الان شاید برای ما اولویت روی توسعه باشد و این به معنی این نیست که تهدید وجود ندارد ولی شاید تهدید اصلی این باشد که ما همان داده درست و تمیز را نتوانیم وارد بکنیم به انجین‌ها و موتور‌های هوشمند که بخواهیم این توسعه را داشته باشیم و این می‌شود گفت که حالا به نوعی گذشته از اینکه ما را عقب می‌راند نسبت به توسعه بین‌المللی و توسعه جهانی نسبت به این موضوع باعث می‌شود که وجهه اعمال آن تهدید‌ها بر ما خیلی بیشتر شود.
سوال: آقای دکتر عاشری با توجه به بحثی که و صورت گرفته در سند ملی توسعه هوش مصنوعی به تهدید‌ها آیا توجه شده و اینکه به راهکار‌ها هم توجه شده همان‌طور که خود شما گفتید که حالا می‌خواهم ببینم اولویت بندی در کدام سمت و سو هست؟
عاشری: من قبل از پاسخ سؤال شما را بدهم عرضی که می‌خواستم بکنم این هست به نظر من الان بزرگ‌ترین تهدیدی که ما در مورد هوش مصنوعی مواجه هستیم تهدیدات بد هوش مصنوعی هست یعنی در واقع به نظر می‌آید یک بازی‌هایی دارد راه می‌افتد که هوش مصنوعی برای کشور‌هایی مثل ما به عنوان یک فناوری خیلی مخرب و تهدید گر شناخته شود و چه بسا همین مانع شود که ما نتوانیم سوار بر فناوری بشویم و از مسئولین و مواهب آن بهره‌مند بشویم در مورد سؤالتون در حوزه سند ملی هوش مصنوعی در واقع ما کلیاتی را آن جا در سندی که معاونت علمی دراد تدوین می‌شود کلیاتی را داریم مشخص می‌کنیم که در حوزه‌های مختلف در واقع تهدیداتی که در استفاده از هوش مصنوعی باهاش مواجه بشویم کلیاتش را مشخص می‌کنیم مثلاً هوش مصنوعی اخلاق‌مدار و در واقع بحث مشاغل است که در نظام ارزشی در ایران اسلامی استفاده از هوش مصنوعی باید به گونه‌ای باشد که امنیت شغلی و سایر وجه‌های امنیت مردم از بین نرود لذا ما در سند ملی هوش مصنوعی این کلیات را مشخص کنیم در کل یک کار ملی بزرگی باید در کشور انجام شود که ما بتوانیم مجموعه اسنادی را خوب تدوین کنیم که بتوانیم این در واقع فناوری را برش مسلط باشیم ان‌شاءالله بتوانیم در جهت رفاه حال مردم از آن استفاده کنیم.

سوال: جناب دکتر پور اسماعیل هم الان روی خط با ما هستند کارشناس فناوری اطلاعات مرکز پژوهش‌های مجلس در خصوص هوش مصنوعی داشتیم صحبت می‌کردیم به یکی از بحث‌هایی که رسیدیم وجود تنظیم گری و قانون‌گذاری در این حوزه بود در این زمینه فعالیت‌هایی انجام شده؟
پور اسماعیل: بله حتما انجام شده من خواستم از اشتغال و شغل که دوستان کارشناسان صحبت کردند از آن جا شروع بکنم شما شغل‌هایی که الان وجود دارد کارمند‌های که چه دولت و چه بخش خصوصی برای مشاغل مختلف انتخاب می‌کنند خوب هر کدام با یک ساز و کاری بررسی‌هایی را انجام می‌دهند که ببینند آن شخص و آن کارشناس برای آن شغل در واقع مناسب هست یا خیر؟ پس از بررسی‌ها مشخص می‌شود شخصی یک شغلی را داشته باشد آیا خوب حالا این سامانه‌های هوش مصنوعی که قرار است در واقع مثل این کار شناسایی که شغل‌ها را تصاحب می‌کنند و کار را انجام می‌دهند کار‌های کارشناسی این کار‌ها را انجام می‌دهند سامانه‌ها در واقع به جای انسان تصمیم گیری می‌کنند و فعالیت می‌کنند آیا این سامانه‌ها باید در در واقع طبق قوانین و مقررات و مشخصه‌هایی باید فعالیت بکنند یا خیر؟ مشخصاً در واقع ما باید قوانینی داشته باشیم که برای سامانه‌های هوش مصنوعی که در حوزه‌های مختلف اقتصادی، اجتماعی، فرهنگی، آموزش، سلامت صنایع و حوزه‌های دیگر که الان دارند توسعه پیدا می‌کنند و در آینده هم با سامانه‌های جدیدی ما مواجه هستیم ساز و کارش را مشخص بکنند و ملاحظاتی که باید این سامانه‌های هوش مصنوعی برای فعالیت در این حوزه‌ها داشته باشند این‌ها را باید در واقع قانون گذاران مشخص بکنند و مخاطراتی هم که مرتبط با هر کدام از این حوزه‌ها هست را مشخصاً قانون گذار بپردازد و در واقع به تبع آن تنظیم گران تخصصی هر حوزه هم ورود داشته باشند و تنظیم گری خاص خودشان رو داشته باشند.
سوال: آقای فانی در ابتدا اشاره کردید به دو مقوله یکی اینکه تهدیداتی که در کوتاه مدت وجود دارد و بلند مدت، بلند مدت باقی ماند بلند را تیتروار بفرمایید؟

فانی: یکی بحث پیش بینی ناپذیری عملکرد خود هوش مصنوعی هست که ممکن است به سطحی از بلوغ این‌ها برسند که بیشتر از صد تا از اپراتوری که دارد کار می‌کند خودش، خودش رو اصلاح کند یعنی خوداصلاح گری داشته باشد بحث بعدی تبعیض بهره‌برداری از هوش هست و به عنوان مثال الان خوب آمریکا مثلاً یکی از خط‌های اصلی سیاستی تحریف هست که این فناوری و زیرساخت‌هایش توسعه پیدا نکند در چین و کشور‌هایی که همسو باهاش نیستند و نکته بعدی از کنترل خارج شدن است من می‌خواهم این را برای بینندگان گرامی عرض بکنم که ما در کجا هستیم سه لایه تقسیم بندی مختلف برای هوش متصور هست سه لایه‌ای که ما می‌توانیم بهش فکر بکنیک در رابطه با این موضوع که بخواهم خدمتتان عرض کنم بحث یک هوش مصنوعی محدود است که برای یک کار خاصی فقط طراحی شده یکی هم لایه بعدی این که بحث هوش مصنوعی کلی یا جنرال‌ای آی هست که این کار‌های مشابه انسان انجام می‌دهد چندین مجموعه چندین کار را می‌تواند نجام بدهد و لایه بعدی بحث بحث هوش مصنوعی فوق‌العاده یا سوپر‌ای آی هست که در آن هوش مصنوعی می‌تواند به ادراک نزدیک شود آن لایه که خطرناک هست این هست که ما هوش مصنوعی را توسعه داده باشیم که به سوپر‌ای آی باشد که به ادراک نزدیک شده باشد و بهش چه چیزی را چه چیزی را ارائه بدهیم این را ارائه بدهیم که تصمیم‌گیری کند برای بشریت بدون احساسات که ما در لایه جنرال‌ای آی و آن لایه وسطی شاید مثلا چهل سال باهاش فاصله داریم لذا الان نیاز هست که ما توسعه را ببینم زمانی که چرخ خیاطی آمد در انگلیس بریتانیا به عنوان ملکه بریتانیا گفت کسی که چرخ خیاطی را اختراع کرده گردن بزنند به خاطر اینکه می‌گفتند شغل‌ها را به هم می‌و از بین می‌برد به قولی کلید واژه‌ای هست در اقتصاد به اقتصاد شومپیتری که فناوری‌های خلاق و برهم زن می‌آیند و این باعث توسعه بهره‌وری هم بعضاً می‌شود کما اینکه چرخ خیاطی خیلی کمک کرد.
سوال: اینجا نکته‌ای هم هست شما گفتید که چهل سال فاصله داریم تا آن نزدیک شدن به ادراک خوب فناوری غیرقابل پیش‌بینی است ما نمی‌توانیم بگوییم چهل سال فاصله داریم راجع به توسعه‌ای که پیش می‌آید و در سال‌های هم گذشته شاهد آن بودیم پس باید آگاه باشیم نسبت به همین فناوری که خود شما می‌فرمایید توسعه بدهیم فناوری را و آماده باشیم با هرگونه تهدیدی که باهاش مواجه شدیم و همون‌طور که الان جهان با تهدید مواجه شدند و در مقابلش تمهیداتی را می‌اندیشند؟

فانی: در لایه جهانی و به قولی گفتم آن چیزی که در دنیا اتفاق می‌افتد سازمان ملل دنبال این هست که هر کشوری معمولاً یک نکته می‌گوید سازمان دنبال این هست که حالت‌ای ایی برای هوش مصنوعی دا شته باشد کشور بریتانیا خیلی دنبال این قضیه هست و رویکرد‌های دیگر هم در کشور‌ها 
هست.

منبع: خبرگزاری صدا و سیما

کلیدواژه: کارشناس فناوری اطلاعات توسعه هوش مصنوعی هوش مصنوعی هوش مصنوعی هوش مصنوعی هوش مصنوعی انجام می دهند شود گفت شکاف طبقاتی داشته باشند معاونت علمی داشته باشیم عدم شفافیت انجام بدهد ان شاءالله کوتاه مدت تنظیم گری سامانه ها هست که ما نظر من تهدید ها خدمت شما کشور ها حوزه ها سند ملی فرصت ها کار ها شغل ها باز هم خوب ما

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.iribnews.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «خبرگزاری صدا و سیما» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۶۰۷۲۵۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هوش مصنوعی توانست ویرایش ژنی را هدفمند کند

به گزارش خبرگزاری علم و فناوری آنا به نقل از نیویورک‌تایمز، محققان آمریکایی یک سیستم هوش مصنوعی مولد ساخته‌اند که می‌تواند به مکانیسم‌های میکروسکوپی زیستی نقشه راه بدهد تا دی ان ای انسان را ویرایش کند.

فناوری جدید این پژوهشگران که اهل برکلی آمریکا هستند مبتنی بر همان روش‌هایی است که چت‌جی‌پی‌تی را هدایت می‌کند و در واقع یک چت‌بات آنلاین است که از هوش مصنوعی برای تجزیه‌و‌تحلیلِ حجم وسیعی از داده‌ها مانند مقالات ویکی‌پدیا، کتاب‌ها و گزارش‌های چت برای تولید زبان استفاده می‌کند.

این فناوری که پروفلوئنت (Profluent) نام دارد، مقادیر عظیمی از داده‌های زیستی، از جمله مکانیسم‌های میکروسکوپیِ مورد استفاده دانشمندان برای ویرایش دی ان‌ای انسان را تجزیه و تحلیل می‌کند تا ویرایشگر‌های ژنی جدید ایجاد کنند.

این ویرایشگر‌های ژن، بر اساس روش‌های برنده جایزه نوبل عمل می‌کنند که مکانیسم‌های زیستی معروف به کریسپر (CRISPR) را شامل می‌شوند. فناوری مبتنی بر کریسپر در حال حاضر روش مطالعه و مبارزه دانشمندان با بیماری‌ها را تغییر می‌دهد و راهی برای تغییر ژن‌هایی ارائه می‌دهد که باعث بیماری‌های ارثی مانند کم‌خونی سلول داسی شکل و نابینایی می‌شوند.

پروفلوئنت از یکی از ویرایشگر‌های ژن تولید‌شده توسط هوش مصنوعی به نام اُپن کریسپر-۱ (OpenCRISPR-۱) برای ویرایش دی ان‌ای انسان استفاده کرده است.

فناوری هوش مصنوعی پروفلوئنت توسط یک شبکه عصبی هدایت می‌شود، یک سیستم ریاضی که مهارت‌ها را با تجزیه و تحلیل حجم وسیعی از داده‌ها یاد می‌گیرد. پروفلوئنت رفتار ویرایشگر‌های ژن کریسپر را که از طبیع استخراج شده‌اند تجزیه‌وتحلیل می‌کند و می‌آموزد که چگونه ویرایشگر‌های ژن کاملاً جدید ایجاد کند.

این پروژه بخشی از یک تلاش گسترده‌تر برای توسعه فناوری‌های هوش مصنوعی است که می‌تواند مراقبت‌های پزشکی را بهبود بخشد. به عنوان مثال، دانشمندان دانشگاه واشنگتن از روش‌های چت‌بات‌هایی، چون چت‌جی‌پی‌تی و نرم‌افزار‌های ساخت عکس مانند  میدجرنی (Midjourney) برای ایجاد پروتئین‌های کاملاً جدید استفاده می‌کنند. این پروتئین‌ها مولکول‌هایی میکروسکوپی هستند که تمام زندگی انسان را هدایت می‌کنند و نقش مهمی در تسریع توسعه واکسن‌های جدید دارند.

انتهای پیام/

نازنین احسانی طباطبایی

دیگر خبرها

  • ایران رتبه ۱۷ هوش مصنوعی را در جهان دارد
  • معرفی مراکز برتر مشاوره و سبک زندگی دانشگاه‌های کشور
  • هوش مصنوعی توانست ویرایش ژنی را هدفمند کند
  • عرضه فناوری جدید ساخت تراشه شرکت TSMC تا سال ۲۰۲۶
  • فناوری در خدمت جنایت
  • نظم جهانی در آستانه فروپاشی است
  • مخاطرات عدم سرمایه‌گذاری متوازن در زیست‌بوم هوش مصنوعی
  • جهان اسلام بعد از عملیات وعده صادق مورد تکریم واقع شد
  • حمایت ایرانسل از رویداد استارتاپی «هوش مصنوعی از داده تا ثروت»
  • بسترسازی برای مشارکت بخش خصوصی در ایجاد پایگاه‌های بزرگ‌داده