نگاهی به مدلهای هوش مصنوعی متنباز
به گزارش روابط عمومی مرکز توسعه کسب و کارهای نوین جوانان وندا به نقل از دیجیاتو، حدود دو هفته پیش یادداشت یکی از مهندسان گوگل به نام «لوک سرانو» منتشر شد که مدعی بود تهدید اصلی علیه غولهای فناوری در حوزه هوش مصنوعی از جانب جامعه متنباز مطرح شده است. ولی نگاهی دقیقتر به این بازار نشان میدهد که اگر شرکتهای بزرگ دسترسی به مدلهای خود را مسدود کنند، پروژههای متنباز توفیق چندانی برای رقابت با شرکتهای بزرگ نخواهند داشت.
هر روز بر تعداد مدلهای زبانی متنبازی که رقیب مدلهای هوش مصنوعی گوگل و OpenAI بهحساب میآیند، افزوده میشود. این مدلها درواقع نسخه کوچکتر و ارزانتر بهترین مدلهایی هستند که توسط شرکتهای بزرگ فناوری ساخته شدهاند و ادعا میکنند که میتوانند همتراز آنها باشند.
شرکتهایی مثل گوگل – که در کنفرانس توسعهدهندگان اخیر خود هوش مصنوعی مولد را به تمام سرویسهایش اضافه کرد – آنقدر درگیر رقابت با دیگر شرکتها ازجمله OpenAI و مایکروسافت بودهاند که نتوانستهاند تهدید اصلی را از سوی جامعه متنباز ببینند.
این اتفاق از بسیاری جهات اتفاق خوبی بوده است. دسترسی بیشتر به مدلهای هوش مصنوعی موجب افزایش نوآوری و رفع مشکلات این مدلها شده. اگر این فناوری فقط در دست چند شرکت بزرگ فناوری باشد که برای آینده آن تصمیم میگیرند، هرگز رشد نخواهد کرد.
ولی رشد پروژههای متنباز پرتزلزل است؛ اکثر این پروژهها روی شانههای مدلهای غولهای فناوری سوار شدهاند. اگر شرکتهایی مثل متا و OpenAI تصمیم بگیرند که دسترسی به ابزارهای خود را مسدود کنند، پیشرفت جامعه متنباز متوقف میشود.
درحالحاضر بسیاری از مدلهای آزاد روی مدل زبانی بزرگ LLaMA از متا ساخته شدهاند. بقیه هم از مجموعه داده بزرگی به نام Pile استفاده میکنند که عمومی بوده و توسط شرکتی غیرانتفاعی موسوم به EleutherAI ساخته شده است. بااینحال، خود EleutherAI هم صرفاً بهخاطر بازبودن OpenAI بهوجود آمده است؛ چون مهندسان آن با کمک اطلاعاتی که این شرکت منتشر کرده بود، توانستند GPT-3 را مهندسی معکوس کنند و مدل خود را بسازند.
«استلا بیدرمن»، مدیر اجرایی و رئیس واحد تحقیقات EleutherAI و مشاور Booz Allen Hamilton میگوید: «واحد هوش مصنوعی متا با تعلیم و انتشار مدلها برای جامعه محققان کار بزرگی انجام داده است.» سرانو، مهندس گوگل هم در یادداشت خود به نقش مهم متا در پیشرفت جامعه متنباز اشاره کرده بود. گوگل صحت این یادداشت افشایی را تأیید کرده است، اما میگوید این توضیحات استراتژی رسمی آنها را بیان نمیکند.
بااینوجود، همهچیز میتواند تغییر کند. OpenAI با عرضه GPT-4 تا حدی استراتژی خود را نسبت به نسخههای قبلی تغییر داد، چون نگران رشد رقبا بود. البته در شایعات گفته شده است که این شرکت میخواهد مدل هوش مصنوعی جدیدی را بهصورت متنباز عرضه کند، اما چنین چیزی هنوز رسماً تأیید نشده است.
متا هم ممکن است سیاستهای خود را تغییر دهد تا از ریسک سوءاستفاده از مدلهایش جلوگیری کند. «جوئل پینو»، مدیر واحد هوش مصنوعی متا، درباره بازکردن کد مدلهای این شرکت میگوید: «صادقانه فکر میکنم درحالحاضر کار درست همین است. اما آیا پنج سال دیگر هم استراتژی ما همین خواهد بود؟ نمیدانم؛ چون هوش مصنوعی بهسرعت درحال حرکت است.»
اگر ترند بستن دسترسی عموم به مدلهای هوش مصنوعی جدی شود، نهتنها جامعه متنباز دچار چالشی اساسی میشود، بلکه نسل بعدی فناوریهای هوش مصنوعی بهطور کامل به دست بزرگترین شرکتهای دنیای فناوری میافتد. بنابراین چگونگی ساخت و استفاده از این فناوریها در آینده در یک تقاطع قرار گرفته است.
رونق یکباره مدلهای هوش مصنوعی متنباز
نرمافزارهای متنباز دهههاست که وجود دارند و بخش بزرگی از اینترنت روی همین نرمافزارها سوار است. در گذشته اما هزینه ساخت مدلهای هوش مصنوعی قدرتمند آنقدر زیاد بود که اجازه نمیداد پروژههای متنباز حرفی برای زدن داشته باشند. اما خیلی زود شرایط تغییر کرد.
کافی است نگاهی به چند هفته اخیر داشته باشید. استارتاپ Hugging Face که از حامیان اصلی دسترسی باز و آزاد به هوش مصنوعی است، در تاریخ 5 فروردینماه از اولین مدل متنباز برای رقابت با ChatGPT پرده برداشت.
چتبات این استارتاپ با نام HuggingChat روی یک مدل زبانی بزرگ متنباز به نام Open Assistant ساخته شده که برای گفتوگو بهینهسازی شده است. این مدل هم خود با کمک حدود 13 هزار داوطلب تعلیم یافته و حدود یک ماه است که منتشر شده. ولی حتی Open Assistant هم بر پایه مدل LLaMA از متا بهوجود آمده است.
از سوی دیگر، StableLM را داریم که 28 اسفندماه معرفی شد و یک مدل زبانی بزرگ متنباز متعلق به شرکت StabilityAI است. این شرکت همان شرکتی است که مدل تبدیل متن به تصویر Stable Diffusion را ساخته بود. آنها در تاریخ 8 فروردینماه پروژه StableVicuna را معرفی کردند که نسخهای از StableLM برای گفتوگو است. (StableLM را مشابه GPT-4 و StableVicuna را مشابه ChatGPT در نظر بگیرید.)
این مدلهای متنباز به جمع چند مدل دیگر مثل Alpaca (از دانشگاه استنفورد)، Dolly (از شرکت Databricks) و Cerebras-GPT (از شرکت Cerebras) ملحق شدهاند. اکثر این مدلها مبتنی بر LLaMA یا مدلها و مجموعه دادههای EleutherAI بهوجود آمدهاند.
برای بعضیها، متنبازبودن یک موضوع اصولی است. «یانیک کیلچر»، یوتوبر و محقق هوش مصنوعی میگوید: «این مسئله یک تلاش جمعی در جهان برای این منظور است که قدرت هوش مصنوعی مکالمهای در دسترس همگان قرار بگیرد و از دست چند شرکت بزرگ خارج شود.»
«جولین چائوموند»، همبنیانگذار Hugging Face، ماه گذشته دراینباره گفت: «ما هیچگاه عرصه مبارزه برای هوش مصنوعی متنباز را ترک نخواهیم کرد.» برای بقیه اما بحث سودآوری هم مطرح است.
Stability AI امیدوار است که ترفند قبلی آنها درزمینه مدلهای تصویری روی چتباتها هم جواب دهد. آنها میخواهند ابتدا به بازار نوآوری تزریق کنند و بعد به کمک انفجار نوآوری میان توسعهدهندگانی که از محصولات این شرکت استفاده میکنند، به سود برسند. Stability AI میخواهد بهترین ایدههای خلاقانه شکل بگیرند و بعد آنها را بهصورت محصولات سفارشی برای گستره وسیعی از مشتریان عرضه کنند. «عماد مستقی»، مدیرعامل این شرکت میگوید: «ما به نوآوری سوخت میدهیم و بعد از نتیجه آن ثمره میگیریم. این بهترین مدل تجاری دنیاست.»
درهرحال، مدلهای زبانی متنباز و آزاد باعث میشوند این فناوری در دسترس میلیونها آدم در سراسر دنیا قرار بگیرد و ابزارها و کاربردهای جدیدی را بهوجود بیاورد. بیدرمن میگوید: «حالا بسیار بیشتر از هر زمان دیگری در تاریخ دسترسی به این فناوری وجود دارد.»
«امیر قوی»، وکیل شرکت Fried Frank که با تعدادی از شرکتهای فعال درزمینه هوش مصنوعی مولد ازجمله Stability AI کار میکند، میگوید: «صادقانه بگویم شمار فوقالعاده زیاد روشهایی که مردم درحال استفاده از این فناوری هستند، شگفتآور است. فکر میکنم این قضیه گواهی بر خلاقیت بشری است که کل هدف متنبازبودن را شامل میشود.»
پردازشگرهایی که ذوب شدند
آموزش مدلهای زبانی بزرگ از صفر کار بسیار سختی است. مستقی میگوید: «این کار هنوز از عهده بخش عمده افراد خارج است. ما در حین ساخت StableLM چندین GPU را ذوب کردیم.» اولین نسخه از مدل Stable Diffusion اگر نگوییم بهتر از مدلهایی مثل Imagen گوگل یا DALL-E بود، در حد این مدلها کار میکرد. این مدل نهتنها رایگان بود، بلکه روی کامپیوترهای خانگی هم اجرا میشد. Stable Diffusion نقش زیادی در توسعه ابزارهای هوش مصنوعی تصویری در سال گذشته داشت.
ولی عماد مستقی اینبار میخواهد انتظارها را تعدیل کند. او میگوید StableLM قدرتی در حد GPT-4 نخواهد داشت: «هنوز کارهای زیادی باید انجام شود. ماجرا مانند Stable Diffusion نیست که بلافاصله مدلی بسیار کارآمد داشته باشید. آموزش مدلهای زبانی کار سختتری است.»
مشکل بعدی این است که هرچه مدلها بزرگتر میشوند، تعلیمدادنشان دشوارتر میشود. موضوع فقط به هزینه قدرت رایانشی هم محدود نیست. فرایند تعلیم اغلب در مدلهای بزرگتر شکست میخورد و باید دوباره راهاندازی شود. درنتیجه ساخت آنها هزینه بیشتری نیاز دارد.
بیدرمن میگوید در عمل محدودیتی برای حداکثر تعداد پارامترهایی وجود دارد که اکثر شرکتها قادر به تعلیمدادنشان هستند. دلیلش این است که مدلهای بزرگ باید با چندین GPU مختلف آموزش داده شوند و ایجاد ارتباط میان تمام این سختافزارها کار پیچیدهای است. او ادامه میدهد: «آموزش موفق مدلها در این مقیاس، حوزه بسیار جدیدی از تحقیق درزمینه رایانش توان بالاست.»
عدد دقیق پارامترها با پیشرفت فناوری تغییر میکند، ولی بیدرمن درحالحاضر این سقف را در دامنهای بین 6 تا 10 میلیارد پارامتر قرار داده است. (در مقایسه، GPT-3 حدود 175 میلیارد پارامتر و LLaMA حدود 65 میلیارد پارامتر دارد.) این رابطه کاملاً مستقیم نیست، اما بهطور کلی، مدلهای بزرگتر عملکرد بهتری دارند.
بیدرمن انتظار دارد که فعالیتها پیرامون مدلهای زبانی متنباز ادامه پیدا کند. ولی تمرکز آنها بر توسعه یا پذیرش چند مدل از پیشتعلیمیافته معطوف خواهد شد: «درحالحاضر فقط چند شرکت وجود دارند که از مدلهای از پیشتعلیمیافته بهره میبرند، و انتظار دارم که شرایط در آینده نزدیک به همین صورت باقی بماند.»
به همین دلیل است که خیلی از مدلهای متنباز روی LLaMA ساخته شدهاند. البته مدل EleutherAI هم وجود دارد. بااینحال، بیدرمن میگوید فقط یک جای دیگر در دنیا وجود دارد که قادر به توسعه این مدلهاست و آنجا چین است.
EleutherAI چگونه بهوجود آمد؟
EleutherAI بهلطف OpenAI پروبال گرفت. OpenAI در سال 2020 تازه مدل GPT-3 را عرضه کرده بود. بیدرمن توضیح میدهد: «GPT-3 باعث شد تفکر خیلیها درباره مدلهای هوش مصنوعی مقیاس بزرگ تغییر کند. این مدل اغلب بهعنوان یک گذر پارادایم فکری درزمینه آنچه افراد از این مدلها انتظار دارند، در نظر گرفته میشود.»
بیدرمن و چند محقق دیگر، هیجانزده از پتانسیلهای این فناوری جدید، میخواستند کمی با این مدل سروکله بزنند تا درک بهتری نسبت به عملکرد آن پیدا کنند. بنابراین تصمیم گرفتند GPT-3 را شبیهسازی کنند. البته OpenAI خود این مدل را منتشر نکرده بود، اما بهقدر کافی اطلاعات به اشتراک گذاشته بود تا بیدرمن و گروهش دریابند که این مدل چگونه ساخته شده است.
هیچکس در بیرون از OpenAI قبلاً هرگز مدلی شبیه به GPT را تعلیم نداده بود، اما آنها در میانه همهگیری کرونا قرار گرفته بودند و کار دیگری برای انجامدادن نداشتند. بیدرمن میگوید: «زمانی که وارد این کار شدم، مشغول شغلم بودم و با همسرم بازی رومیزی انجام میدادم. بنابراین تخصیص 10 یا 20 ساعت زمان در هفته کار نسبتاً راحتی بود.»
اولین گام آنها کنار هم قراردادن یک مجموعه داده عظیم جدید بود که شامل میلیاردها تکه متن باشد و بتواند با دادههای مورد استفاده در تعلیم GPT-3 رقابت کند. EleutherAI که از مجموعه دادههای خود با نام Pile نام میبرد، آن را در اواخر سال 2020 منتشر کرد.
EleutherAI از این مجموعه داده برای تعلیم اولین مدل متنباز خود استفاده کرد. آموزش بزرگترین مدل این شرکت حدود سه ماه و نیم طول کشید و با حمایت یک شرکت رایانش ابری انجام گرفت. بیدرمن اضافه میکند: «اگر میخواستیم از جیب خودمان این هزینه را بدهیم، حدود 400 هزار دلار میشد. درخواست این رقم از یک گروه تحقیقاتی دانشگاهی درواقع درخواستی هنگفت است.»
کمک از راه رسید
بهخاطر همین هزینهها، روش آسانتر این است که این مدلها را مبتنی بر مدلهای موجود بسازیم. LLaMA خیلی زود به بهترین گزینه برای شروع کار بسیاری از پروژههای متنباز تبدیل شد. واحد هوش مصنوعی متا از حدود یک دهه پیش که توسط «یان لکون» پایهگذاری شد، اتکای زیادی بر توسعه متنباز داشته و این تفکر به بخشی از فرهنگ متا تبدیل شده است. پینو میگوید: «اوضاع بسیار شبیه به رویکرد سریع حرکت کن و محصول بساز در بازارهای آزاد است.»
پینو درباره مزایای این سازوکار شفاف میگوید: «این کار تنوع افرادی را که به توسعه این فناوری کمک میکنند، افزایش میدهد. این یعنی نهتنها محققان یا کارآفرینان، بلکه دولتها هم میتوانند دید واضحی نسبت به این مدلها داشته باشند.»
پینو و همکارانش مثل بخش عمده جامعه متنباز باور دارند که شفافیت باید یک استاندارد باشد: «یکی از چیزهایی که از محققانم میخواهم انجام دهند، این است که پروژهها را با تفکر متنبازشدن آغاز کنند. چون وقتی چنین کاری انجام میدهید، معیار بسیار بالاتری را از نظر دادههای مصرفی و چگونگی ساخت مدل برای خود در نظر میگیرید.»
ولی ریسکهای مهمی هم وجود دارد؛ مدلهای زبانی بزرگ میتوانند اطلاعات اشتباه ارائه کنند، تعصب داشته باشند و نفرتپراکنی کنند. همچنین میتوان از آنها برای تولید پروپاگاندا یا ساخت بدافزار استفاده کرد. پینو میگوید: «شما میان شفافیت و ایمنی یک مصالحه انجام میدهید.»
این مصالحه برای واحد هوش مصنوعی متا به این معناست که برخی مدلها اصلاً عرضه نخواهند شد. برای مثال، اگر تیم پینو یک مدل را روی دادههای کاربران فیسبوک تعلیم دهد، این مدل باید در داخل سازمان باقی بماند، چون ریسک نشت اطلاعات خصوصی مردم بسیار زیاد است. در غیر این صورت، توسعهدهندگان باید مدل خود را با مجوزی منتشر کنند که صرفاً به کاربردهای تحقیقاتی اجازه بهرهبرداری بدهد.
رویکرد آنها برای LLaMA هم همین بود. ولی چند روز پس از انتشار، یک نفر کل این مدل و دستورالعملهای آن را در انجمن گفتوگوی 4chan منتشر کرد. پینو میگوید: «هنوز فکر میکنم این کار برای این مدل خاص مصالحه درستی بود، اما ناامید شدم که مردم چنین کاری میکنند؛ چون در ادامه کار برای چنین عرضههایی سختتر میشود. ما همیشه حمایت خوبی را برای این رویکرد از طرف مدیریت شرکت و خود شخص مارک [زاکربرگ] دریافت کردیم، اما این شرایط بهآسانی بهدست نمیآید.»
حالا ریسکها برای واحد هوش مصنوعی متا افزایش یافته است. پینو توضیح میدهد: «مسئولیت احتمالی انجام کارهای دیوانهوار برای استارتاپهای بسیار کوچک خیلی کمتر از وقتی است که یک شرکت بسیار بزرگ هستید. ما درحالحاضر این مدلها را برای هزاران نفر منتشر میکنیم، اما اگر شرایط مشکلساز شود یا احساس کنیم که ریسکهای ایمنی بزرگتر شدهاند، حلقه را کوچکتر میکنیم و مدلها را از طریق توافقهای محرمانگی یا NDA که مانع از ساخت محصول با این مدلها حتی برای امور تحقیقاتی میشوند، صرفاً در اختیار همکاران سرشناس آکادمیک خود قرار میدهیم؛ کسانی که اعتبار بالایی دارند.»
اگر این اتفاق بیفتد، ممکن است خیلی از فعالان جامعه متنباز دسترسی به نسل بعدی مدل هوش مصنوعی متا را از دست بدهند. بدون LLaMA، مدلهای متنبازی مثل Alpaca ،Open Assistant یا Hugging Chat به این اندازه خوب نمیشوند و نسل بعدی خلاقان حوزه متنباز نمیتوانند به همین راحتی پروژههای هوش مصنوعی خود را پیش ببرند.
نکته مهم رسیدن به تعادل است
سایر شرکتها نیز درحال ارزیابی مزایا و معایب این رویکرد متنباز و رایگان هستند. در همان زمانی که متا LLaMA را عرضه کرد، Hugging Face از مکانیزمی شبیه به یک دروازه پرده برداشت تا کاربران برای دسترسی پیداکردن به مدل این شرکت درخواست دهند و تأیید شوند. هدف این شرکت این بود که فقط افراد مجاز با مقاصد مناسب بتوانند از این مدل بهره بگیرند.
«مارگارت میچل»، دانشمند ارشد اخلاق در Hugging Face میگوید: «من مبشر متنبازبودن نیستم و میتوانم متوجه دلایلی باشم که بستهبودن را بسیار منطقی میکنند.» برای مثال، او به محتواهای بزرگسالانه فاقد رضایت اشاره میکند که میتوانند یکی از خطرات دسترسپذیرکردن این مدلهای قدرتمند باشد. او میگوید این کاربرد، یکی از کاربردهای اصلی مدلهای تصویری هوش مصنوعی است.
میچل که قبلاً در گوگل کار کرده و تیم Ethical AI را بهوجود آورده، تنش موجود در این فضا را درک میکند. او طرفدار چیزی است که خودش به آن «دموکراتیزهکردن مسئولانه» میگوید؛ رویکردی شبیه به متا که در آن مدلها به شیوهای کنترلشده و با توجه به ریسک بالقوهای که میتوانند برای آسیبرسانی داشته باشند، منتشر میشوند. میچل اضافه میکند: «من واقعاً قدردان آرمانهای متنباز هستم، اما فکر میکنم مفید است که نوعی مکانیزم مسئولیتپذیری هم داشته باشیم.»
OpenAI هم شرایط را سختتر کرده است. زمانی که GPT-4 معرفی شد، این شرکت جمله عجیبی را در گزارش فنی خود آورده بود که میگفت: «با توجه به چشمانداز رقابتی و پیچیدگیهای ایمنیِ مدلهای مقیاس بزرگ نظیر GPT-4، این گزارش حاوی هیچ جزئیات بیشتری درباره معماری (ازجمله اندازه مدل)، سختافزار، رایانشهای تعلیمی، ساخت مجموعه دادهها، روشهای آموزش یا موارد مشابه نیست.»
این محدودیتهای جدید تا حدودی متأثر از این مسئله است که OpenAI حالا یک شرکت سودمحور شده که با غولهایی مثل گوگل رقابت میکند. ولی بحث تغییر عقیده مدیران شرکت هم مطرح است. «ایلیا سوتسکِور»، همبنیانگذار و دانشمند ارشد این شرکت، در مصاحبهای گفته بود که بازبودن OpenAI در گذشته یک اشتباه بوده است.
سازنده ChatGPT بدونشک استراتژیهای خود را درباره اینکه چه محصولاتی برای عمومیشدن ایمن هستند، تغییر داده است. «سندینی آگاروال»، محقق سیاستگذاری OpenAI میگوید: «پیشتر اگر چیزی متنباز بود، شاید گروه کوچکی از افراد به آن اهمیت میدادند. اما حالا کل جامعه تغییر کرده است. متنبازبودن واقعاً میتواند سرعت توسعه را افزایش دهد و به رقابتی با نهایت توان منجر شود.»
OpenAI نقش مهمی در پیشرفت هوش مصنوعی متنباز داشت
ولی اوضاع قبلاً به این منوال نبود. اگر OpenAI سه سال پیش که GPT-3 عرضه شد، چنین تفکری داشت، EleutherAI بهوجود نمیآمد. امروز EleutherAI نقش مهمی در اکوسیستم متنباز ایفا میکند. این شرکت تاکنون چندین مدل زبانی ساخته و از Pile برای آموزش چندین پروژه متنباز ازجمله StableLM استفاده کرده است. (مستقی از اعضای هیئتمدیره EleutherAI است.)
اگر OpenAI جزئیات مربوط به ساخت GPT-3 را منتشر نمیکرد، هیچکدام از این اتفاقها نمیافتاد. اما با بستهشدن GPT-4 – و احتمالاً 5 و 6 – جامعه متنباز ممکن است دوباره از صحنه رقابت شرکتهای بزرگ بیرون بماند. البته این پروژهها شاید بتوانند بهینهسازیهایی را ارائه کنند و حتی به رقابت با برخی از محصولات گوگل بپردازند، اما به نسل قبلی مدلهای هوش مصنوعی محدود خواهند بود و پیشرفت واقعی و جهش بزرگ بعدی، پشت درهای بسته رقم خواهد خورد.
آیا این اتفاق اهمیتی دارد؟ اینکه راجع به بستهشدن دسترسی به مدلهای هوش مصنوعی شرکتهای بزرگ فناوری و اثر آن بر جامعه متنباز باید چه فکری بکنید، تا حد زیادی به این بستگی دارد که به نظر شما هوش مصنوعی چطور و توسط چه کسی باید ساخته شود.
امیر قوی میگوید: «هوش مصنوعی احتمالاً در شکل و رسمی که جامعه خودش را ساماندهی میکند، تعیینکننده خواهد بود. فکر میکنم داشتن یک سیستم شفاف و دارای مؤلفههای وارسی بهتر از تمرکز قدرت در دستان چند نفر است.»
بیدرمن هم با این ایده موافق است: «قطعاً فکر نمیکنم ضرورتی اخلاقی برای همه وجود داشته باشد تا متنباز شوند. ولی در پایان راه، بسیار مهم است که افرادی مشغول توسعه و تحقیق درباره این فناوری باشند که از نظر مالی چشمانتظار موفقیت تجاری آن نیستند.»
بااینحال، او از ریسکها هم آگاه است: «من درواقع خیلی کمتر از آنچه مردم تصور میکنند، نسبت به OpenAI انتقاد دارم. انتشار عمومی این فناوری با ریسکها و خطرات بزرگی همراه است.»
OpenAI مدعی است که آنها صرفاً جانب احتیاط را رعایت میکنند. «دیو ویلنر»، رئیس بخش اعتماد و ایمنی شرکت سازنده ChatGPT میگوید: «نمیگوییم شفافیت خوب نیست. موضوع این است که سعی داریم راهی برای شفافبودن در عین حفظ ایمنی پیدا کنیم. با قدرتمندترشدن این فناوریها، کشمکشهایی بین این مباحث بهوجود میآید.»
ویلنر ادامه میدهد: «خیلی از معیارها و تفکرها در حوزه هوش مصنوعی توسط جوامع تحقیقاتیِ آکادمیک بهوجود آمده است که برای مشارکت و شفافیت ارزش قائلند تا افراد بتوانند پروژههای یکدیگر را پیشرفت دهند. شاید این قضیه با پیشرفت این فناوری باید کمی تغییر کند.»
دیدگاهتان را بنویسید