اقتصاددیجیتالپیشنهاد سردبیرمقالههوش مصنوعی

۹ موضوع برتر اخلاقی در هوش مصنوعی

کانال تلگرام رسانه فناوری هوشمند

تهیه‌کننده: فاطمه صالح‌نیا (دانشجوی ارشد هوش مصنوعی دانشگاه مالک اشتر)

هوش مصنوعی زندگی ما را در بیشتر موارد، تحت تأثیر قرار می‌دهد، به عنوان نمونه، می‌توان به بهینه‌سازی لجستیک، تشخیص تقلب، خلق آثار هنری، انجام تحقیقات و ارائه ماشین‌های ترجمه‌، اشاره کرد. سیستمهای ماشینی هوشمند، زندگی ما را به سمت بهتر شدن، تغییر می‌دهند. هرچه این سیستم‌ها، توانایی بیشتری پیدا می‌کنند، دنیای ما نیز کارآمدتر و در نتیجه ثروتمندتر می‌شود.

غول‌های فن‌آوری مانند آلفابت[۱]، آمازون، فیسبوک، آی بی ام و مایکروسافت – و همچنین افرادی مانند استفان هاوکینگ[۲] و ایلان ماسک[۳] – اعتقاد داشتند که اکنون زمان مناسبی برای صحبت در مورد چشم‌انداز نامحدود هوش مصنوعی است. از بسیاری جهات، این مورد، به همان اندازه که برای فن‌آوری در حال ظهور، مرز جدیدی ارائه می‌دهد، برای اخلاقیات و ارزیابی ریسک نیز مرز جدیدی تعیین خواهد کرد. پس باید دید، کدام مسائل و مکالمات، ذهن متخصصان هوش مصنوعی را بیشتر درگیر می‌کند؟

جهت دانلود و مشاهده عناوین ماهنامه ” اقتصاد دیجیتال” اینجا کلیک نمایید.

بیکاری؛ بعد از اتمام مشاغل چه اتفاقی می‌افتد؟

سلسه‌مراتب کار، در اولویت نگرانی‌های مربوط به خودکارسازی[۴] است. همانطور که روش‌های خودکارسازی مشاغل را ابداع کرده‌ایم، می‌توانیم فضایی را برای افراد فراهم کنیم تا نقش‌های پیچیده‌تری را به عهده بگیرند. به عبارتی، از کار فیزیکی که بر جهان قبل از صنعت مسلط بود، به سمت کار مدیریتی و اجرایی که مشخصه جامعه جهانی شده است، حرکت کنیم.

به عنوان نمونه، سیستم حمل و نقل را در نظر بگیرید. در حال حاضر، این سیستم، تنها در ایالات متحده، میلیون‌ها نفر را استخدام می‌کند. اگر کامیون‌های خودرانی که توسط ایلان ماسک وعده داده شده، در دهه آینده، به طور گسترده در دسترس باشد، چه اتفاقی خواهد بود؟ اما از سوی دیگر، اگر ریسک پایین تصادف را در نظر بگیریم، کامیون‌های خودران، یک انتخاب اخلاقی به نظر می‌رسند. همین سناریو می‌تواند برای کارکنان ادارات و همچنین اکثریت نیروی کار در کشورهای توسعه‌یافته، اتفاق بیفتد.

اینجاست که به این سؤال می‌رسیم که چگونه می‌توانیم در این عصر، وقت خود را صرف کنیم؟ بیشتر مردم هنوز به اینکه وقت خود را برای کسب درآمد کافی، برای تأمین هزینه‌های زندگی خودشان و خانواده‌هایشان صرف کنند، متکی هستند. ما تنها می‌توانیم امیدوار باشیم که این فرصت، به مردم این امکان را بدهد، تا در فعالیت‌های غیرکاری، مانند مراقبت از خانواده‌، تعامل با جوامع و یادگیری شیوه‌های جدید مشارکت در جامعه انسانی، وقت بیشتری صرف کنند.

اگر این انتقال به صورت موفق انجام شود، ممکن است روزی به عقب نگاه کرده و فکر کنیم که وحشیانه است که بشر برای اینکه بتواند زندگی کند، مجبور است بیشتر وقت بیداری خود را برای کار کردن تلف کند.

نابرابری؛ چگونه ثروت ایجاد شده توسط ماشین‌ها را توزیع کنیم؟

سیستم اقتصادی ما، مبتنی بر جبران خسارت برای اقتصاد است، که اغلب با استفاده از دستمزد ساعتی ارزیابی می‌شود. اکثر شرکت‌های مرتبط با محصولات و خدمات، هنوز به کار ساعتی وابسته هستند. اما با استفاده از هوش مصنوعی، یک شرکت می‌تواند به شدت، تکیه بر نیروی کار انسانی را کاهش دهد و این امر، بدین معنی است که درآمد به افراد کمتری خواهد رسید. در نتیجه، افرادی که در شرکت‌های مبتنی بر هوش مصنوعی، مالکیت دارند، همه پول را دریافت خواهند کرد.

ما در حال حاضر، شاهد افزایش شکاف ثروت هستیم، جایی‌که بنیانگذاران شرکت‌های نوپا، بخش عمده ای از ثروت مازاد اقتصادی ایجاد شده را کسب می‌کنند. در سال ۲۰۱۴، در سه شرکت بزرگ در دیترویت[۵] و سه شرکت بزرگ در دره سیلیکون[۶]، کاهش شدید تعداد کارمندان، انجام شد. این در حالی‌ است که تنها در دره سیلیکون، با کاهش ۱۰ برابری کارمندان، درآمدی مشابه قبل بدست آمد.

اگر واقعاً جامعه پساکار[۷] را تصور کنیم ، چگونه باید در این دوران، اقتصادی عادلانه را شکل دهیم؟

بشریت[۸]؛ ماشین ها چگونه بر رفتار و تعاملات ما تأثیر می گذارند؟

ربات‌های هوشمند مصنوعی، در مدل‌سازی مکالمه و روابط انسانی روز به روز بهتر می‌شوند. در سال ۲۰۱۵، یک ربات به نام یوجین گوستمن[۹]، برای اولین بار برنده چالش تورینگ[۱۰] شد. در این چالش، ارزیاب‌های انسانی[۱۱]، از ورودی متنی، برای چت با یک موجودیت ناشناس استفاده می‌کردند، سپس این افراد، بایستی حدس می‌زدند که در حال مکالمه با یک انسان بوده‌اند یا با یک ماشین چت کرده‌اند. یوجین گوستمن، بیش از نیمی از افراد رأی‌دهنده را فریب داد، به طوری‌که آنها فکر کردند که با یک انسان صحبت کرده‌اند.

این نقطه عطف، تنها آغازی برای عصری است که ما به طور دائم با ماشین‌ها، چه در حوزه خدمات مشتری و چه در فروش، به نحوی ارتباط برقرار می‌کنیم، که گویی آنها انسان هستند. در حالی‌که انسان، در میزان توجه و مهربانی که می‌تواند نسبت به شخص دیگری صرف کند، محدودیت‌ دارد، اما ربات‌های مصنوعی می‌توانند منابع تقریباً نامحدودی را برای برقراری روابط، به‌ کار گیرند.

با اینکه بسیاری از ما از این مسأله آگاه نیستیم، اما در این عصر شاهد این هستیم که چگونه ماشین‌ها می‌توانند باعث تحریک مراکز پاداش[۱۲] در مغز انسان شوند. اگر به عناوین جذب کلیکی[۱۳] و بازی‌های ویدیویی دقت کنید، این عناوین اغلب با آزمایش A/B[14]، بهینه می‌شوند. آزمایش A/B، را می توان یک شکل ابتدایی از بهینه‌سازی الگوریتمی، برای محتوایی که باعث جلب توجه انسان می‌شود، معرفی کرد. این روش به همراه روش‌های دیگر، برای اعتیادآور کردن بازی‌های ویدیویی و موبایل، به صورت متعدد استفاده می‌شود. اعتیاد به فن‌آوری، مرز جدیدی از وابستگی‌های انسانی است.

از سوی دیگر، شاید بتوانیم به فکر استفاده‌ای متفاوت از نرم افزار باشیم. قبلاً مشاهده شده که نرم افزارها، در جهت‌دهی توجه انسان و تحریک آن برای انجام اقدامات خاصی، مؤثر واقع شده‌است. زمانی‌که این مورد در جهت درست استفاده شود، می‌تواند به فرصتی برای سوق دادن جامعه به سمت رفتار مفیدتر، تبدیل شود. با این‌حال، این ابزار، در کاربرد اشتباه، می‌تواند مضر باشد.

حماقت مصنوعی[۱۵]، چگونه می‌توان از بروز اشتباه جلوگیری کرد؟

هوش، خواه در انسان باشد یا ماشین، از یادگیری نشأت می‌گیرد. سیستم‌ها، معمولاً یک مرحله آموزشی دارند که در آن “یاد می‌گیرند”، تا الگوهای صحیح را تشخیص دهند و مطابق با ورودی‌های خود عمل کنند. زمانی که یک سیستم به‌طور کامل آموزش ببیند، می‌تواند وارد مرحله آزمایش شود، جایی‌که با مثال‌های بیشتری سروکار دارد و در این مرحله بهتر می‌توان نحوه عملکرد آن را مشاهده کرد.

بدیهی است که مرحله آموزش، نمی‌تواند تمام نمونه‌های احتمالی را که یک سیستم ممکن است در دنیای واقعی با آن مواجه شود، پوشش دهد. این سیستم‌ها را می‌توان با روش‌هایی که برای گول زدن انسان درست عمل نمی‌کند، فریب داد. برای مثال، الگوهای نقطه‌ای تصادفی، می‌توانند ماشین را به سمت چیزی که در واقع وجود ندارد، هدایت کنند. اگر برای ورود به دنیای جدیدی از کار، امنیت و کارایی، به هوش مصنوعی تکیه کنیم، باید اطمینان حاصل کنیم که ماشین طبق برنامه داده‌شده، عمل می‌کند و مردم نمی‌توانند بر آن غلبه کرده و از آن برای پیشبرد اهداف خود استفاده کنند.

ربات های نژادپرست؛ چگونه سوگیری های هوش مصنوعی را حذف کنیم؟

هوش مصنوعی اگرچه دارای سرعت و ظرفیت پردازشی بسیار فراتر از توانایی انسان است، اما همیشه نمی‌تواند قابل‌اعتماد و بی‌طرف باشد. گوگل و شرکت اصلی آن، آلفابت، یکی از پیشگامان در زمینه هوش مصنوعی هستند.

یکی از سرویس‌های مرتبط با هوش مصنوعی این شرکت، سرویس عکس‌های گوگل است که در آن از هوش مصنوعی برای شناسایی افراد، اشیاء و صحنه‌ها استفاده می‌شود. اما گاهی نیز ممکن است اشتباه شود. برای مثال، می‌توان به زمانی‌که یک دوربین، حساسیت نژادی را از دست داد، اشاره کرد. نمونه این اشتباه در دوربین دیجیتال نیکون[۱۶] مدل S630، مشاهده شد. به این‌صورت که برای افرادی که دارای چشمان خاصی هستند، نظیر ژاپنی‌ها، این دوربین قادر به تفکیک خنده این افراد با چشمک زدن نبود. این امر به‌دلیل عدم توجه به حساسیت‌های نژادی در طراحی و استفاده از هوش مصنوعی، رخ داد.

به عنوان نمونه دیگر، می‌توان به زمانی اشاره کرد، که از یک نرم‌افزار، به‌منظور پیش‌بینی مجرمان آینده، استفاده می‌شد. نتایج به‌دست آمده از این ابزار، وجود تعصب علیه سیاه‌پوستان را نشان می‌داد. ماجرا به این‌صورت بود که دختری سیاه‌پوست، که به جرم استفاده بدون اجازه از دوچرخه همسایه به زندان افتاده بود، به همراه مردی سفیدپوست که به جرم دزدی مبلغ هنگفتی از دخل فروشگاه، در زندان بود و سابقه سرقت مسلحانه را نیز داشت، توسط این نرم افزار، به منظور پیش‌بینی احتمال وقوع جرم در آینده، مورد بررسی قرار گرفتند.

نتیجه نشان داد که احتمال ارتکاب جرم توسط دختر سیاه‌پوست، به‌مراتب، بالاتر از احتمال ارتکاب جرم به‌وسیله مرد سفیدپوست است. این در حالی است که چندسال بعد، در حالی‌که دختر سیاه‌پوست، هیچ جرمی مرتکب نشده بود، مرد سفیدپوست در حال گذراندن دوره محکومیت خود، به جرم سرقت مسلحانه از یک انبار، بود. این نیز نمونه‌ای از اشتباه هوش مصنوعی، به‌دلیل استفاده از داده‌های متعصبانه نسبت به سیاه‌پوستان، بود.

ما نباید فراموش کنیم که سیستم‌های هوش مصنوعی که توسط انسان‌ها ایجاد می‌شوند، می‌توانند قضاوت‌هایی مغرضانه یا محدود داشته‌باشند. از طرفی، اگر از این ابزارها به‌درستی استفاده شود یا کسانی که برای پیشرفت اجتماعی تلاش می‌کنند، از آنها استفاده کنند، هوش مصنوعی می‌تواند به یک جرقه برای تغییرات مثبت تبدیل شود.

امنیت[۱۷]؛ چگونه هوش مصنوعی را از شر دشمنان در امان نگه داریم؟

هر چه یک فن‌آوری قدرتمندتر شود، بیشتر می‌توان از آن، برای مقاصد پلید، به اندازه مقاصد خوب، استفاده کرد. این امر، نه تنها در مورد ربات‌هایی که برای جایگزینی سربازان انسانی، یا سلاح‌های خودمختار، استفاده می‌شوند، صادق است، بلکه در مورد سیستم‌های هوش مصنوعی، که استفاده نادرست از آنها می‌تواند منجر به آسیب شود، نیز صدق می‌کند. از آنجا‌که این نبردها، فقط در میدان جنگ انجام نمی‌شود، امنیت سایبری از اهمیت بیشتری برخوردار خواهد بود. بهرحال، ما با سیستمی روبرو هستیم که به‌مراتب از ما، سریعتر و تواناتر است.

اجنه شیطانی[۱۸]؛ چگونه از عواقب ناخواسته جلوگیری کنیم؟

فقط دشمنان نیستند که باید نگرانشان باشیم. چه اتفاقی خواهد افتاد، اگر خود هوش مصنوعی دشمن ما شود؟ این سؤال، به این معنی نیست که ابزار هوش مصنوعی، ناگهان به یک “شیطان”، به روشی که برای یک انسان ممکن است، تبدیل شود یا مشابه حوادثی که درباره هوش مصنوعی در فیلم‌های هالیوودی نشان داده شود، باشد. بلکه می‌توان یک سیستم هوش مصنوعی پیشرفته را به‌عنوان “جن درون بطری[۱۹]”، در نظر گرفت، به این صورت، که می‌تواند آرزوها را برآورده کند، اما ممکن است، عواقب پیش‌بینی‌نشده وحشتناکی نیز داشته باشد.

در مورد یک ماشین، احتمال اینکه سوءنیتی در کار باشد، کم است. تنها فقدان درک کاملی از آنچه برای این ماشین‌ها مدنظر است، مطرح می‌شود. یک سیستم هوش مصنوعی را تصور کنید که برای اعلام راه‌حل ریشه‌کن کردن سرطان در جهان، از او سؤال پرسیده شود. بعد از محاسبات فراوان، این ابزار، فرمولی را به‌عنوان نتیجه ارائه می‌دهد که در واقع، پایان سرطان را با کشتن همه مردم روی کره زمین، به ارمغان می‌آورد. در این حالت، مشخص است که کامپیوتر، در رابطه با هدف مدنظر خودش که ” نه به سرطان بیشتر” است، بسیار کارآمد عمل کرده، اما مسلماً این راه حل، روشی که مدنظر انسان‌ها باشد، نخواهد بود.

تکینگی[۲۰]؛ چطور یک سیستم هوشمند پیچیده را تحت کنترل داشته باشیم؟

دلیل قرار گرفتن انسان، در بالای زنجیره غذایی، دندان‌های تیز یا عضلات قوی نیست. می‌توان گفت، سلطه انسان به‌طور کامل، به خاطر نبوغ و ذکاوت او است. ما می‌توانیم از حیوانات بزرگتر، سریعتر و قوی‌تر بهره بگیریم، به این دلیل، که قادر به ساخت ابزاری برای کنترل و استفاده از آنها هستیم. این ابزار می‌تواند هم ابزار فیزیکی، مانند قفس و سلاح بوده و هم ابزار شناختی مانند آموزش و شرطی‌سازی، باشد.

موارد فوق، یک سؤال جدی در رابطه با هوش مصنوعی ایجاد می‌کند: آیا هوش مصنوعی، روزی، همان مزیت را نسبت به ما خواهد داشت؟ ما نمی‌توانیم فقط به “کشیدن دوشاخه”، اعتماد کنیم. چون یک ماشین کاملاً پیشرفته، ممکن است این حرکت را پیش‌بینی کرده و از خود در مقابل آن دفاع کند. این همان چیزی است که برخی “تکینگی” می‌نامند: نقطه زمانی‌ که انسان دیگر باهوش‌ترین موجود روی کره زمین نیست.

حقوق ربات‌ها؛ چگونه رفتار انسانی با هوش مصنوعی را تعریف کنیم؟

در حالی‌که دانشمندان علوم مغز و اعصاب، هنوز در حال رمزگشایی اسرار تجربه‌های آگاهانه هستند، ما اطلاعات زیادی در مورد مکانیسم‌های اولیه پاداش و زیان کسب کرده‌ایم. ما این مکانیسم‌ها را حتی با حیوانات ساده نیز، به اشتراک می‌گذاریم. به نوعی، ما در حال ایجاد مکانیسم‌های مشابه این پاداش و زیان، در سیستم‌های هوش مصنوعی هستیم. برای مثال، یادگیری تقویتی[۲۱]، شبیه آموزش یک سگ است: مشابه زمانی‌که با تعیین پاداش و زیان، به یک سگ آموزش می‌دهیم، در یک سیستم هوش مصنوعی مبتنی بر یادگیری تقویتی نیز، بهبود عملکرد با ارائه یک پاداش مجازی، تقویت می‌شود.

در حال حاضر، این سیستم‌ها نسبتاً سطحی هستند، اما در حال پیچیده‌تر شدن و نزدیک شدن به زندگی عادی، هستند. آیا ما می‌توانیم سیستمی را در نظر بگیریم که اگر از سیستم پاداش و زیان استفاده کند و به آن ورودی منفی داده شود، رنج بکشد؟! در کنار این روش، الگوریتم‌های به اصطلاح ژنتیکی[۲۲] قرار دارد. این الگوریتم‌ها، نمونه‌های بسیاری از سیستم را در یک لحظه ایجاد می‌کنند و تنها موفق‌ترین آنها “زنده می ماند[۲۳]” و برای ترکیب با سایر نمونه‌های موفق و تشکیل نسل بعدی، مورد استفاده قرار می‌گیرد. این امر در طول چندین نسل اتفاق می‌افتد و راهی برای بهبود سیستم است. نمونه‌های ناموفق حذف می‌شوند. باتوجه به حذف بسیاری از حالات در این روش، در چه نقطه‌ای، می‌توان الگوریتم‌های ژنتیکی را نوعی کشتار جمعی در نظر گرفت؟

زمانی‌که ماشین‌ها را به عنوان نهادی در نظر بگیریم که می‌توانند ادراک و احساس داشته و عملی را انجام دهند، فکر کردن درباره اینکه باید برای وضعیت حقوقی آنها، تدابیری لحاظ کنیم، جهش بزرگی به نظر نمی‌رسد. آیا باید با این ماشین‌ها، مانند حیوانات با سطح هوش مشابه، رفتار شود؟ آیا ما باید رنج ناشی از وجود ” احساس[۲۴]” در ماشین را نیز در نظر بگیریم؟

برخی از سؤالات اخلاقی، در مورد کاهش درد و رنج بوده و برخی از آنها، در مورد خطر وجود نتایج منفی هستند. در حالی‌که ما همه این خطرات را مدنظر قرار می‌دهیم، باید به خاطر داشته باشیم که به‌طور کلی، این پیشرفت فن‌آوری، به معنای زندگی بهتر برای همه است. هوش مصنوعی دارای پتانسیل وسیعی است و مسئولیت پیاده‌سازی و اجرای صحیح آن، با در نظر گرفتن همه مخاطرات، به عهده ما است.

تهیه‌ شده در گروه مطالعات اخلاقی پژوهشگاه فضای مجازی

بیشتر از هوش مصنوعی در اقتصادالکترونیکی:
ده ویژگی ضروری رهبران در عصر هوش مصنوعی
هوش مصنوعی و انتخابات
نگاهی به آینده؛ جایگاه کلان‌داده‌ها، یادگیری ماشین و هوش مصنوعی در حوزه مراقبت‌های بهداشتی
چگونه کسب‌و‌کارها از قابلیت‌های هوش مصنوعی بهره می‌برند؟
چگونه چهره ای جذاب بسازیم؟
هوش مصنوعی پیش‌بینی می‌کند کدام کلید ایمنی کدام قفل را باز می‌کند
اروپا برای استفاده از هوش مصنوعی ممنوعه جریمه تعیین کرد
برای توسعه اتوماسیون دیجیتال؛ همکاری گوگل و زیمنس برای تولید ابزار هوش مصنوعی صنعتی
استفاده اطلاعاتی از هوش مصنوعی در اروپا ممنوع می شود
مذاکرات مایکروسافت برای خرید یک شرکت هوش مصنوعی



لینک منبع

[۱] . Alphabet
[۲] . Stephen Hawking
[۳] . Elon Musk
[۴] . automation
[۵] . Detroit: بزرگ‌ترین شهر در ایالت میشیگان
[۶] . Silicon Valley: نام رایج و غیررسمی منطقه‌ای در حدود ۷۰ کیلومتری جنوب شرقی سانفرانسیسکو در حومه سانتا کلارا، کالیفرنیا است. شهرت این منطقه، به دلیل قرار داشتن بسیاری از شرکت‌های مطرح انفورماتیک جهان در این منطقه ‌است.
[۷] . post-work society
[۸] . Humanity
[۹] . Eugene Goostman
[۱۰] . Turing Challenge
[۱۱] . human raters
[۱۲] . reward centres
[۱۳] . click-bait headlines
[۱۴] . A/B testing
[۱۵] . Artificial stupidity
[۱۶] . Nikon
[۱۷] . Security
[۱۸] .Evil genies
[۱۹] . genie in a bottle: اشاره به افسانه قدیمی که اجنه شرور درون بطری محبوس شده اند. با آزاد کردن آنها، فرد به سه آرزو خواهد رسید اما آزاد کردن جن، عواقب پیش بینی نشده و خطرناکی را نیز به همراه خواهد داشت.
[۲۰] . singularity
[۲۱] . reinforcement learning
[۲۲] . genetic algorithms
[۲۳] . survive
[۲۴] . feeling

کانال تلگرام رسانه فناوری هوشمند

نوشته های مشابه

‫۱۳ دیدگاه ها

  1. بازتاب: دیپ فیک اعضای پارلمان هلند را گول زد : پایگاه خبری اقتصاد الکترونیکی
  2. بازتاب: اقتصاد دیجیتال چین در ۲۰۲۰ در بحبوحه بحران کرونا رشد کرد : پایگاه خبری اقتصاد الکترونیکی
  3. بازتاب: توسعه هوش‌مصنوعی بر سر پرتگاه بی‌قانونی : پایگاه خبری اقتصاد الکترونیکی
  4. بازتاب: هوش مصنوعی می‌تواند از انسان جلو بزند : پایگاه خبری اقتصاد الکترونیکی
  5. بازتاب: حکمرانی داده‌ها در دنیای دیجیتال : پایگاه خبری اقتصاد الکترونیکی
  6. بازتاب: آیا واقعا هوش مصنوعی در دوران کرونا ۴۰ میلیون شغل را نابود کرده است ؟ : پایگاه خبری اقتصاد الکترونیکی
  7. بازتاب: جاده ابریشم ایران در فضای دیجیتال ایجاد می‌شود : پایگاه خبری اقتصاد الکترونیکی
  8. بازتاب: تبادلات حوزه اقتصاد دیجیتال توسعه یافت تا راهی برای رونق کسب‌وکارهای آنلاین باشد : پایگاه خبری اقتصاد الکترونیکی
  9. بازتاب: ربات ها چه زمانی جای انسان ها را در بازار کار می گیرند؟ : پایگاه خبری اقتصاد الکترونیکی
  10. بازتاب: پیشرفته ترین ربات های جهان را ببینید : پایگاه خبری اقتصاد الکترونیکی
  11. بازتاب: ماهنامه ” اقتصاد دیجیتال” شماره 8، اردیبهشت ماه ۱۴۰۰ : پایگاه خبری اقتصاد الکترونیکی
  12. بازتاب: ماهنامه ” اقتصاد دیجیتال” شماره 8، اردیبهشت ماه ۱۴۰۰ : پایگاه خبری اقتصاد الکترونیکی
  13. بازتاب: ربات های نویسنده و آشنایی بهتر با آن‌ها در عصر هوش مصنوعی : پایگاه خبری اقتصاد الکترونیکی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

همچنین ببینید
بستن
دکمه بازگشت به بالا