اقتصادی

ربات‌هایی که با ما دویده‌اند

ربات‌هایی که با ما دویده‌اند

هوش مصنوعی و ابزارهای آن در دنیای امروز تکنولوژی نقش‌هایی به‌ظاهر ساده، امّا جدی و تاثیرگذار ایفا می‌کند. دیگر گستره اثرگذاری فضای مجازی در مدیریت و مهندسی افکارعمومی ، برانگیختن احساسات و عواطف و حتی تصمیم‌سازی‌های سیاسی و اجتماعی بر کسی پوشیده نیست. ولی زمانی که بدانیم پشت بخش قابل توجهی از تولید و بازتولید محتوا در این فضاها، ربات است نه انسان؛ اینجاست که به درک عمیق‌تری از قدرت تکنولوژی در زندگی بشر می‌رسیم.

به گزارش سی وی نت، روزنامه «شهروند» نوشت: در گفت‌وگو با دکتر مسعود اسدپور، مدرس دانشگاه تهران و متخصص هوش مصنوعی، به موضوعات جالب‌توجهی اشاره شده‌است؛ از کاربرد هوش مصنوعی در فضای مجازی و روش‌های تحلیل محتوایی بواسطه این ابزار تا پشت پرده چهره‌های مطرح در این حوزه، مثل ایلان ماسک و مارک زاکربرگ. این بخش از گفت‌وگو را در ادامه می‌توانید بخوانید.

درباره کاربرد هوش مصنوعی در فضای مجازی و اینکه به‌واسطه هوش مصنوعی چه اتفاقاتی در فضای مجازی در حال رخ دادن است، کمی توضیح می‌دهید؟
 مسأله مهمی که در فضای مجازی باید مورد توجه قرار گیرد، بحث مدیریت افکار عمومی با استفاده از این ربات‌هاست. هرچند شاید هم‌اکنون برای مدیریت افکار عمومی نیاز به ربات‌های چندان هوشمندی نداریم. زیرا هنور افکار عمومی با این که فعالیتی به‌صورت رباتی انجام می‌شود، خیلی آشنا نیست؛ ولی همانطور که جلوتر می‌رویم، مردم با این فعالیت‌ها آشناتر می‌شوند. برخی ربات‌ها برای جذب فالوور به‌کار می‌روند؛ مثلا اکانت فرد به ربات داده می‌شود و این ربات به جای اکانت اینستاگرامی در فضای مجازی فعالیت می‌کند، مثلا کامنت‌های ساده و با الگوی تکراری برای بقیه کاربران می‌گزارد و باعث می‌شود فالوورهای این اکانت بالا برود. این ساده‌ترین کار است. در بسیاری از موارد می‌توان فعالیت ربات را تشخیص داد، چون عبارتی ساده و عام را در قالب مشخصی تکرار می‌کند یا   لایک و استیکر ساده می‌گذارد. وقتی یک اکانت همیشه از این گونه کامنت‌ها می‌گذارد، مشخص می‌شود، ربات است. مگر اینکه بتواند متنی را در پاسخ به چیزی که در پست فرد مقابل گفته شده تولید کند.

با این حال با تکنولوژی‌های جدید هوش مصنوعی مثل Chat GPT، قابلیت تعامل‌های پیچیده امکان پذیر می‌شود؛ مثلا می‌توان از این ربات هوش مصنوعی  پرسید یک کاربر حرفی به من زده و من می‌خواهم یک پاسخ به او بدهم مبنی بر اینکه چرا  حرف او اشتباه است. Chat GPT محتوایی برای پاسخ، تولید می‌کند و به درخواست‌کننده می‌دهد. به بیان دیگر می‌توانیم از ربات‌ها برای مباحثه استفاده کنیم. با این روش به یک‌باره می‌توان چند هزار اکانت محتوایی را تولید یا حمایت کرد. زمانی که چند هزار اکانت را در مقابل چند اکانت محدود واقعی قرار می‌دهیم، راحت می‌شود افکار عمومی را مدیریت کرد.

در این صورت تحلیل فضای مجازی هم با خطا مواجه می‌شود؟
دقیقا. همین باعث می‌شود فضای تحلیل هم دچار اشتباه شود. مثلا در فضای تحلیل نظرسنجی‌ای می‌شود و نتیجه نشان می‌دهد چند درصد از مردم به موضوعی معتقد هستند و چند درصد دیگر به سوژه دیگر. با این حال نمی‌توان تفکیک کرد این اکانت‌ها ربات است یا انسان. زیرا همانطور که شاهد هستیم پیشرفت به سمتی کشیده می‌شود که حتی متن هم توسط هوش مصنوعی تولید و تشخیص انسان از ربات سخت‌تر می‌شود. در این شرایط نمی‌توان دقیقا تحلیل افکار عمومی را به‌دست آورد؛ اینکه مردم دارند به کدام سمت می‌روند.

در همین اتفاقات چند ماه گذشته پیرامون قضیه مهسا امینی، آمارها   که با روش‌های کاملا علمی و متقن استخراج شده نشان می‌دهد، حداقل به طور قطعی یک‌سوم اکانت‌هایی که دارای فعالیت بالایی در توئیتر بوده‌اند ربات هستند یا نشانه‌هایی از سازماندهی شدن دارند. این نشان می‌دهد چقدر این تکنولوژی در دنیا توسط قدرت‌ها و گروه‌ها استفاده می‌شود.

چطورمتوجه این قضیه شده‌اید؟
در این مورد خاص روش علمی ساده و مشخصی را استفاده کردیم؛ توزیع آماری فاصله زمانی بین یک پست تا پست بعدی اکانت‌های پرکار توئیتری را بررسی کردیم. اکانت‌های زیادی وجود دارند که فاصله زمانی یک توئیت تا توئیت بعدی شان  زیر ٣٠ ثانیه است. خب کسی که در توئیتر فعالیت می‌کند می‌داند که توئیت کردن کار ساده‌ای نیست که شما بتوانید به دفعات زیاد و با متن‌های مختلف به فاصله زیر ٣٠ ثانیه مسلسل وار توئیت منتشر کنید. آماده سازی یک متن  نیاز به پیدا کردن موضوع، فکر کردن درباره آن، جمله‌بندی کردی، تایپ کردن، اصلاح کردن و اضافه کردن هشتگ دارد. همه این کارها را نمی‌شود زیر چند دقیقه انجام داد. اگر یک اکانت پشت سر هم با فاصله کوتاهی این کار را انجام می‌دهد نشان می‌دهد یا پشت این اکانت ، رباتی قرار دارد که متن آن توسط یک گروه آماده شده است یا پشت این اکانت یک انسانی قرار گرفته که متن از قبل آماده شده ای را توئیت می‌کند که باز هم نشان می‌دهد سازماندهی شده است.  در بسیاری مواقع خیلی راحت از روی متن توئیت‌ها می‌توان فهمید، که متن توسط ربات نوشته شده است. با این حال توئیتر جلوی آنها را نمی‌گیرد. یعنی ممنوعیتی در قوانین توئیتر برای فعالیت ربات‌ها تعریف نشده است.

اکانت‌های زیادی وجود دارند که هشتگ مهسا امینی را در کنار یک شمارنده منتشر کرده اند؛ یعنی یک عدد را که معمولا به حروف فارسی نوشته شده در متن توئیت گنجانیده و هر چند ثانیه یک بار این شمارنده را جلو می‌برد و عدد بعدی را به هشتگ اضافه می‌کند. با این‌حال نه توئیتر قابلیت پردازش زبان فارسی دارد و نه حساسیتی در این موضوعات دارد؛ فعالیت ربات در توئیتر ممنوع نیست. پس مدیریت افکار عمومی با استفاده از ربات‌ها امکان‌پذیر است.

تحلیل محتواها با ابزار هوش مصنوعی به چه صورت است؟

بحث دیگری که در تحلیل فضای مجازی توسط هوش مصنوعی صورت می‌گیرد، پردازش متن و تصویر و استخراج اطلاعات برای   تحلیل است که این تکنیک‌ها به هوش مصنوعی نیاز دارد. برای مثال در روزنامه، رادیو یا تلویزیون، تصویر، صوت یا ویدیوئی منتشر می‌شود. متن این رسانه‌ها با تکنیک‌های هوش مصنوعی می‌تواند استخراج و قابل پردازش با ابزارهای تحلیل زبان طبیعی شود. اگر زبان محتوا متفاوت باشد باید ترجمه ماشینی شود و این هم نیاز به ابزار هوش مصنوعی دارد. به‌طور کلی در فضای مجازی برای تحلیل محتواهای متفاوت تمام تکنیک‌های هوش مصنوعی به‌کار می‌آید و اطلاعات حاصل شده، پردازش و از آن دانش استخراج می‌شود.

لشکرهای سایبری، مفهومی است که در فضای مجازی، سیاسی و اجتماعی دارای قدرت شده و توانایی‌های زیادی در دنیا ایفا می‌کند، درباره این مفهوم هم کمی صحبت می‌کنید؟

همه دنیا دارند در این موضوع کار می‌کنند؛ نخستین اتفاقی که باعث شد توجه دنیا به مدیریت افکار عمومی در ایران جلب شود، اتفاقات سال ٨٨ بود. در آن دوران، سه پلتفرم داشتیم که تاثیر زیادی در قضایای ٨٨ داشتند، اول فیسبوک، دوم توئیتر که در ابتدای راه، جنبش اجتماعی از طریق شبکه‌های مجازی را به گونه‌ای مدیریت می‌کرد و سومین پلتفرم، سایت فارسی بنام بالاترین بود که در آن دوران تاثیر زیادی بر موضوعات سیاسی داشت؛ دنیا سایت بالاترین را نمی‌شناخت ولی توئیتر رامی‌شناخت؛ توئیتر از این موضوع استفاده رسانه‌ای کرد و آپدیت خودش را برای حمایت از اتفاقات سال ٨٨ مدتی  عقب انداخت.

بعد از آن دوران خیلی‌ها فهمیدند از پلتفرم‌های رسانه‌های اجتماعی می‌توان استفاده‌های این چنینی کرد. کشورهای زیادی مفهوم استفاده از ظرفیت شبکه‌های اجتماعی مجازی یا همان لشکر سایبری را برای رسیدن به اهداف سیاسی به‌کار برده‌اند؛ مانند عربستان، رژیم صهیونیستی و آمریکا. حتی در کشورهای آفریقایی هم تیم‌های فعالی در فضای مجازی ساخته شده‌اند. در این میان کره‌جنوبی تیم‌های گروه‌های موسیقی کی پاپ را ساخته‌. این گروه‌ها ربات‌های زیادی در دنیا دارند که از آنها برای مهندسی فرهنگی استفاده می‌کنند. اصولا یکی از برنامه‌های تصویب شده کره‌جنوبی در سطح ملی، مدیریت و مهندسی فرهنگ است.

این گروه‌های موسیقی در ایران هم مثل همه دنیا شبکه‌سازی‌ کرده‌اند، به‌خصوص در میان نوجوانان و نسل Z. تحلیل‌های ما نشان می‌دهد درصد بسیار زیادی از ربات‌هایی که در قضیه مهسا امینی نقش داشتند، همان ربات‌های گروه‌های پاپ کره‌ای بوده‌اند. این ربات‌ها خود تولیدکننده محتوا نبودند، ولی توزیع‌کننده و حمایت‌کننده از محتوا بودند و مطالب را به ‌اصطلاح داغ می‌کردند. گروه‌های پاپ کره‌جنوبی مطرح شدن‌شان در دنیا برایشان خیلی مهم است. یکی از معیارهای رتبه‌بندی برای گروه‌های کره‌جنوبی گستره محبوبیت و معروفیت رسانه‌ای در بقیه کشورهاست بر همین اساس اینها یک‌سری مراکز طرفداری در توئیتر ایجاد کرده‌اند و در کشورهای مختلف تبلیغات می‌کنند، اکثر کارهایشان غیرسیاسی است ولی اکانت‌هایشان طوری است که در صورت نیاز برای کمک به اکانت‌های کشورهای دیگر بسیج می‌شوند. به‌طور کلی مدیریت و مهندسی در محتواهایشان وجود دارد. در قضیه مهسا امینی توزیع و حمایت‌کننده محتوا بودند و مشخص بود که جایی از بالا به آنها گفته بود یک سری اکانت‌ها را حمایت کنند.

فرق انسان و ربات را در فضای مجازی چطور می‌توان تشخیص داد؟
تا الان ربات‌ها فعالیت‌شان خیلی ماشینی بوده (البته با ظهور تکنولوژی ChatGPT این تا حد قابل توجهی به چالش کشیده می‌شود). اگر دیدید اکانتی ٢٤ساعت آنلاین است، کامنت و توئیت می‌گذارد، یعنی این اکانت، ربات است چون انسان نمی‌تواند بیش از ٨-٧ساعت فعالیت کند. نکته دوم، متن است. متنی که خطا در آن نیست و شکل یکسانی دارد یا با رعایت استاندارد یا قالب خاصی نوشته شده؛ این یعنی از قبل برنامه‌ریزی شده و ماشین آن را اجرا می‌کند. کار ربات چهارچوب و ساختار مشخصی دارد و یک‌سری جاهای خالی توسط ربات پر می‌شود.  نکته دیگر برای تشخیص ربات از انسان فاصله زمانی یک فعالیت تا فعالیت بعدی اکانت است. وقتی اکانتی، بی وقفه و ٢٤ ساعته هر چند ثانیه یک بار یک چیزی را بازنشر می‌کند، پستی را لایک یا نقل قول می‌کند، این نشان می‌دهد پشت آن یک ربات قرار گرفته است نه انسان. از کنار هم گذاشتن یک‌سری شواهد مثل زمان فعالیت، گستره زمانی فعالیت، فاصله زمانی بین فعالیت‌ها و چهارچوب‌ فعالیت‌ها که نظم تکرار شونده‌ای دارد، می‌توان ربات را از انسان تشخیص داد. با این حال اگر قبلا امکان  شناخت ربات از روی متن تولیدی وجود داشت، هم‌اکنون با تکنولوژی تولید متون توسط Chat GPT که حتی به فارسی، متون روان و بدون اشتباه نگارشی می‌نویسد از این به بعد دیگر این امکان وجود ندارد یا بسیار سخت است.  فارغ از بحث محتوایی، شما باید اعتبار اکانت را هم درنظر داشته باشید تا بتوانید تصمیم‌ بگیرید که مثلا به خبر این اکانت اعتماد کنید یا نه‌.

ایلان ماسک در توئیتر دقیقا چه کاری می‌کند؟

برداشت شخصی بنده این است که پلتفرهای شبکه‌های اجتماعی به‌دلیل قدرتی که در دست صاحبان‌شان قرار دادند، ترسی را بین سیاستمدارهای دنیا ایجاد کرده‌اند. بخصوص بعد از اتفاقی ‌که برای اکانت ترامپ افتاد. اتفاق کمی نبود؛ رئیس‌جمهوری آمریکا که در حقیقت خودش را قدرتمندترین سیاستمدار دنیا می‌داند صدایش توسط یک پلتفرم خاموش می‌شود و این را نباید دست‌کم گرفت. پس این ترس ایجاد شد مبنی بر اینکه کسی ‌که صاحب پلتفرم است، حتی می‌تواند از یک دولت هم قدرت بیشتری  داشته باشد. در همین رابطه در کشور ما خیلی از اکانت‌ها با فالوور بالا یا پلتفرم‌ها هم‌اکنون قدرتی دارند که خیلی از سیاستمدارها و حتی صدا و سیمای ما ندارد. اگر قصد انجام کاری را داشته باشند امکان دارد موفقیت آنها از تبلیغات صدا و سیمای ما  هم بیشتر باشد. دنیای امروز تکنولوژی، قدرت را در دستان عده‌ای قرار می‌دهد ‌که ممکن است حالا به هر علتی بخواهند از این قدرت سوءاستفاده کنند.

درست مانند انسان که تنها چندین هزار سال هست که بر روی زمین زندگی می‌کند اما به واسطه همین قدرت، زمین را به نابودی کشانده است چون با این قدرت تکامل پیدا نکرده است. انسان و قدرتی که توسط تکنولوژی در اختیارش گذاشته شده به تکامل و بلوغ نرسیده چون در حقیقت تنها چند ده سال است که این تکنولوژی‌ها در اختیار انسان قرار گرفته بدون اینکه تکامل و بلوغی متناسب با این تکنولوژی ها داشته باشد. یعنی گستره زمانی که انسان در حال تکامل و استفاده از این تکنولوژی ها بوده است به او این اجازه را نداده که متوجه معایب آن شود.

برآورد من به این شکل است که در سال‌های آینده فعالیت‌هایی توسط دولت‌ها برای محدود کردن این شبکه‌ها شکل بگیرد. شما ببینید در اروپا قانون GDPR به شکلی در حال محدودکردن و مسئولیت پذیر کردن فضای مجازی است؛ تا قبل از اینکه کشورهای اروپایی با مسائل اجتماعی نظیر اتفاقاتی ‌که برای ما افتاد، روبه‌رو شوند برای محدود کردن این پلتفرم‌ها از ما ایراد می‌گرفتند. ولی با روبه‌روشدن با مسائل اجتماعی مشابه ایران، دقیقا همان کاری را کردند که ما انجام دادیم.

در قضیه بلک بری در انگلیس که دقیقا چند سال بعد از قضایای ۸۸ ما اتفاق افتاد، همان کاری را انجام دادند که ایران انجام داد یا قضیه جنبش اشغال وال‌استریت اتفاقاتی که آن زمان رخ داد بعد از ماجرای ۸۸ بود و باز شبکه‌ها توسط دولت محدود شد. یا اخیرا در فرانسه نیز همین اتفاق افتاد. این نشان‌دهنده این است که چون ما تجربه استفاده از شبکه‌های اجتماعی و تبعات بعد از آن را نداریم مسائل تازه در حال رخ دادن است.
ایلان ماسک به نظر می‌رسد خیلی برنامه خاصی برای توئیتر ندارد. این پلتفرم را با قیمت گزافی خریداری کرده با این حال به نظر می‌رسد انگار سرمایه گذاری اش برایش اهمیت چندانی ندارد و با رفتاری ‌که در توئیتر داشته به نظر می‌رسد که در حال کم‌کردن قدرت توئیتر است. کسی مثل ایلان ماسک که مخ اقتصادی دنیاست تصمیماتی را برای توئیتر می‌گیرد که بنظر می‌رسد کاملا غیر اقتصادی و این شک برانگیز است. من فکر می‌کنم ایلان ماسک در حال کمک به قدرت‌های اقتصادی و سیاسی آمریکا است تا قدرت این شبکه‌ها را پایین بیاورد.

چند وقت پیش گزارش‌هایی از سی ان ان و موسسه گرافیکا در دانشگاه استنفورد منتشر شد که نشان می‌داد اکانت‌های زیادی توسط دولت آمریکا علیه ایران و برخی کشورهای دیگردر توئیتر فعالیت کرده‌اند که برخی از آنها توسط توئیتر کشف و محدود شده اند. بعدها حتی ایلان ماسک فاش کرد توئیتر همکاری گسترده ای با دولت آمریکا داشته که از حد تصور ایلان ماسک خیلی فراتر بوده است. این گونه گزارش‌ها در واقع اعتبار توئیتر را زیر سوال می‌برد. منتشر کردن این نوع گزارشات برای بی‌اعتبار کردن توئیتر حکایت از پاتک قدرت‌های سیاسی آمریکا از ترس قدرت گرفتن مجدد این شبکه‌ها و تاثیرگذاری بر روی انتخابات آمریکا است؛ برای‌اینکه به مردم آمریکا ثابت کنند چنین پروپاگاندای مصنوعی قبلا با استفاده از ربات‌ها انجام شده و مجددا ممکن است چنین کاری تکرار شود. حتی گرفتن تیک آبی از برخی اکانت‌های معروف که اعتبار توئیتر از وجود آنهاست هم حداقل در ظاهر امر نشان می‌دهد ایلان ماسک علاقه ای به گسترش قدرت توئیتر ندارد.

درباره ماجرای متاورس و زاکربرگ با آن همه سروصدا چه توضیحی می‌توان داد؟

متاورس چیز جدیدی نبود. مارک زاکربرگ که متاورس را مطرح کرد هدفش این بود که ترمینولوژی جدیدی در این فضا مطرح کند تا فیسبوک را از بی آبرویی و ورشکستگی نجات دهد که موفق هم نبود. چون در نهایت نه خودش فهمید متاورس چی بوده و نه چیستی آن برای دیگران مشخص شد. ما پیش از این هم واقعیت مجازی یا virtual reality را داشتیم و متاورس چیزی بر آن مفهوم افزون نکرد و چیزهایی را مطرح کرد که وجود داشت.
اگر به یاد بیاوریم در انتخابات ریاست‌جمهوری آمریکا که ترامپ برنده انتخابات شد، سروصدایی بلند شد که تیمی از فیسبوک در کنار کمپین تبلیغاتی ترامپ فعالیت‌هایی را روی آمریکایی‌های فیسبوک انجام داده بودند که به نظر می‌رسید در رقم زدن نتیجه انتخابات موثر بود. شرکتی بنام کمبریج آنالیتیکا تست‌های روان‌شناختی را به‌واسطه دسترسی‌ای که فیسبوک در اختیار آن شرکت قرار داده بود روی یک سری افراد اجرا کردند.

این تست‌ها تیپ شخصیتی کاربران را با پرسیدن سوالات استاندارد شخصیت شناسی روانشناسی روی یک تعداد از کاربران مشخص کرد. سپس با استفاده از اطلاعاتی مانند اینکه این کاربر چه پست‌هایی با چه متنی منتشر کرده؟ چه پست‌هایی را لایک کرده؟ چه فعالیت‌هایی انجام داده؟ چه علایقی دارد؟ شبکه دوستان فرد چه ساختاری دارد؟ و پارامترهایی نظیر آن توانستند با روش‌های یادگیری ماشینی ارتباط معنی داری بین تیپ شخصیتی و پارامترهای مربوط به فعالیت آن فرد در فیسبوک پیدا کنند. بعد از این مرحله هوش مصنوعی قادر است حتی برای کسانی که این تست شخصیت شناسی را انجام نداده‌اند هم از روی فعالیت‌های فیسبوکی‌شان بفهمد چه تیپ شخصیتی دارند. وقتی این اطلاعات در اختیار شما باشد می‌توانید تبلیغاتی را طراحی کنید که وقتی به دست فرد مورد نظر می‌رسد مورد توجه او قرار گرفته و روی آن فرد تاثیر دلخواه شما را بگذارد. کمبریج آنالیتیکا با همه اغراق‌هایی که در عملکردش شد، کارهایی انجام داد که توانست بعضی از کمپین‌های تبلیغاتی را به‌صورت موفق روی کاربران اجرا کند. هر چند چنین کاری براساس قوانین آمریکا علی الظاهر ممنوع است؛ اینکه پلتفرم‌ها کمپین‌های اینچنینی را توسط ربات‌ها اجرا کنند، روی آمریکایی‌ها ممنوع است هرچند اجازه اینکه این کارها را در کشورهای دیگر اجرا کنند، دارند.

این اتفاق در حاشیه انتخابات ریاست‌جمهوری آمریکا باعث شد زاکربرگ به مجلس آمریکا فرا خوانده شود و سهام فیسبوک به‌شدت پایین بیاید. زاکربرگ برای فرار از بدنامی اسم فیسبوک را به متا تغییر داد تا نجاتش دهد. اما متا هم عملا عایدی چندانی برای فیسبوک نداشت. حتی عده‌ای در این میان شروع به خریدن زمین مجازی با قیمت‌های کلان در متاورس کردند ولی در نهایت ایده او ارزش چندانی در محیط تکنولوژیک نداشت.

درباره  چهره‌های مطرح  در حوزه هوش مصنوعی

چهره‌هایی که در این حوزه مطرح هستند، اصولا چهره‌های اقتصادی هستند که شرکت‌های پولداری دارند و پروژه‌های جاه‌طلبانه‌ای را  به‌واسطه اینکه پول‌های کلانی در دست دارند، اجرا می‌کنند. مثلا بیل گیتس، ایلان ماسک و.. بیشتر از بُعد اقتصادی مطرح هستند و از نظر تحقیقاتی افراد مطرحی نیستند. پروژه‌هایی که اجرا می‌کنند، طرح‌هایی است که برای رسیدن به هدف، تلاش تیمی بزرگ و بودجه زیادی می‌طلبد، ولی لزوما شاید پروژه‌هایی نیست که جامعه بشری در کوتاه‌مدت به آنها احتیاج داشته باشد. مثلا پروژه‌های ایلان ماسک خیلی آینده نگرانه است اما از مسائل کلان حال حاضر بشریت مثلا موضوعات زیست محیطی غافل است، در مقابل اهداف بلندپروازانه مثل رفتن به مریخ را پیگیری می‌کند. در این میان شاید کار بیل گیتس مهم‌تر باشد، چون ثروتش را وقف مسائل مهم بشری کرده است. ولی به‌طور کلی اینها افراد مطرحی در پژوهش و مطالعه نیستند و به‌واسطه پول و ثروت‌شان در فضای تکنولوژی مطرح شده‌اند. شما ببینید چند نفر در دنیا با اسم یکی از افرادی که ChatGPT را توسعه داده‌اند آشنا هستند؟

انتهای پیام

دکمه بازگشت به بالا