هوشمصنوعی انقلابی در دنیای فناوری ایجاد کرده و پتانسیلهای بیشماری برای بهبود زندگی انسانها دارد. اما در مورد نحوهی توسعه و استفاده از این فناوری، اختلافنظرهای جدی بین کارشناسان وجود دارد. در این مقاله در وب سایت abazi.ir به این موضوع خواهیم پرداخت.
چندی پیش، گروهی متشکل از ۱۳ نفر از کارمندان فعلی و سابق هر دو شرکت OpenAI و Google Deepmind، نامهای سرگشاده منتشر کردند. این نامه هشدار میدهد که شرکتهای پیشرو در زمینه هوش مصنوعی به اندازه کافی برای ایمنسازی سیستمهای خود تلاش نمیکنند و به جای آن، سود و پیشرفت را اولویت قرار دادهاند.
این نامه با اشاره به فقدان شفافیت شرکتها در مورد خطرات و محدودیتهای کاربردهای هوش مصنوعیشان، تأکید میکند که این موضوع می تواند “به طور بالقوه منجر به انقراض بشر شود .” در این نامه، همچنین خواستار حمایت بیشتر از افشاکنندگان موضوع شدهاند و از این شرکتها میخواهند تا فرآیندهایی برای مطرح کردن نگرانیها با تصمیمگیرندگان و حذف توافقات محدودکنندهی افشاگری منفی (non-disparagement agreements) ایجاد کنند.
این نامه نگرانیهای جدی را در مورد ایمنی و اخلاق توسعه هوشمصنوعی مطرح میکند. با وجود پیشرفتهای چشمگیر، به نظر میرسد که برخی شرکتها آنطور که باید بر ایمنی و شفافیت تمرکز نمیکنند. این موضوع نیازمند اقدام فوری است تا اطمینان حاصل شود که هوش مصنوعی به جای تهدیدی برای بشریت، به ابزاری برای پیشرفت آن تبدیل شود.
انتشار این نامه، تنها یکی دیگر از خطوط مقدم نبردی است که در صنعت هوشمصنوعی در حال شکلگیری است. در این نبرد، بحثهای داغ در مورد تعادل مناسب میان ایمنی و نوآوری، میلیاردرها را در مقابل هم قرار داده است، همان موضوعی که بعدا در این مجموعه به آن خواهیم پرداخت.
حالا، بیایید به سراغ تیترهای خبری برویم.
فهرست مطالب
هوشمصنوعی، اخلاق و قانون
حوزهی مالکیت هنری با ظهور هوش مصنوعی وارد فاز جدیدی شده. موسسه ” The Ansel Adams estate” (عکاس افسانهای مناظر غرب آمریکا بصورت سیاه و سفید)، به طور علنی شرکت “Adobe” را به خاطر فروش تصاویر تولیدشده با هوشمصنوعی به سبک او مورد انتقاد قرار داد. این موسسه حتی در شبکهی اجتماعی” Threads اعلام کرد که از ماه آگوست سال گذشته در تلاش برای حذف این تصاویر بوده است. “Adobe” هم در نهایت با تایید نقض قوانین محتوای ساختهشده با هوشمصنوعی، این تصاویر را جمعآوری کرد.
این رویداد، چالشهای اخلاقی و قانونی استفاده از هوش مصنوعی در حوزهی تولید محتوا را برجسته میکند. از یک سو، هنرمندان نگران سوءاستفاده از سبک و آثارشان هستند و از سوی دیگر، مرز بین واقعیت و جعل با ظهور تصاویر باکیفیت تولیدشده با هوش مصنوعی، کمرنگتر میشود.
شرکت OpenAI بر اساس گزارش چند منبع به فوربس، در حال احیای تیم رباتیک داخلی خود است که پیشتر آن را منحل کرده بود. این شرکت در حال استخدام مهندسین تحقیقاتی برای تیمی است که وظیفهی آموزش و ادغام مدلهای هوش مصنوعی در رباتهای ساختهشده توسط «همکاران خارجی» مانند Figure AI را بر عهده خواهد داشت. OpenAI پیش از عرضهی ChatGPT)، به ساخت یک «ربات چندمنظوره» فکر میکرد، اما به دلیل کمبود دادههای آموزشی، این پروژه را در اواخر سال ۲۰۲۰ کنار گذاشت.
جنگ تراشههای هوشمصنوعی به دور تازهای وارد شد!
رقابت داغ شرکتهای فناوری برای تسلط بر دنیای هوش مصنوعی، وارد فاز جدیدی شده است. روز یکشنبه، شرکت انویدیا از جدیدترین تراشه هوش مصنوعی خود به نام «روبین» رونمایی کرد که در سال ۲۰۲۶ به بازار عرضه خواهد شد. مدیرعامل انویدیا، جنسن هوانگ، جزئیات زیادی در مورد این تراشه فاش نکرد، اما اعلام کرد که با توجه به افزایش تقاضا برای کاربردهای هوش مصنوعی، انویدیا قصد دارد تراشههای خود را با «ریتم یک ساله» به روزرسانی کند.
تنها یک روز بعد، شرکت رقیب یعنی AMD از پردازندههای هوش مصنوعی جدید خود رونمایی کرد که به گفتهی آنها، کارایی بهتر و حافظهی بیشتری نسبت به نسخههای قبلی دارند. لیزا سو، مدیرعامل AMD، همچنین از برنامهی این شرکت برای عرضهی تراشههای هوش مصنوعی جدید با «چرخهی زمانی سالانه» خبر داد.
این رقابت نفسگیر نشاندهندهی اهمیت فزایندهی هوش مصنوعی در دنیای فناوری است. شرکتهای پیشرو در حال رقابت برای ساخت تراشههایی قدرتمندتر و کارآمدتر هستند تا بتوانند بنیان محکمی برای پیشرفتهای آینده در حوزهی هوش مصنوعی ایجاد کنند. با نزدیک شدن به سال ۲۰۲۶، باید منتظر ماند و دید که تراشهی «روبین» انویدیا و پردازندههای جدید AMD چه قابلیتهایی را به ارمغان خواهند آورد و آیا این رقابت به جهشی ملموس در حوزهی هوش مصنوعی منجر خواهد شد.
ChatGPT فراتر از متن: میبیند، میشنود و صحبت میکند!
ChatGPT دیگر صرفا یک ابزار مبتنی بر متن نیست، بلکه میتواند ببیند، بشنود و با انسانها صحبت کند. اما پردازش دادههای صوتی و تصویری به صورت لحظهای، نیازمند زیرساخت شبکهای سریعتر و کارآمدتر است. اینجاست که شرکت استارتآپ «لایو کیت» (LiveKit) که تنها سه سال از تاسیس آن میگذرد، وارد میدان میشود. لایو کیت امروز اعلام کرد که در دور سرمایهگذاری سری A، موفق به جذب حدود ۲۲ میلیون دلار سرمایه با ارزشگذاری ۱۱۰ میلیون دلاری شده است.
در این دور از سرمایهگذاری، چهرههای سرشناسی از دنیای هوش مصنوعی به عنوان سرمایهگذار فرشته (Angel Investor) حضور دارند. از جمله این افراد میتوان به جف دین، رئیس بخش علوم پایه گوگل، ایلاد گیل، سرمایهگذار فناوری، و همچنین بنیانگذاران استارتآپهای مطرح هوش مصنوعی مانند آراویند سرینی (مدیرعامل پرپلکسیتی)، دمی گو (مدیرعامل پیکا) و ماتی استانیسلاوسکی (مدیرعامل الیون لبز) اشاره کرد.
این سرمایهگذاری نشاندهندهی پتانسیل بالای لایو کیت و نقش کلیدی آن در پیشرفت هوش مصنوعی چندرسانهای است. با وجود چنین حامیان قدرتمندی، انتظار میرود لایو کیت بتواند زیرساختهای لازم برای تعاملات واقعیتر و پویاتر بین انسان و هوش مصنوعی را فراهم کند.
هوشمصنوعی: دو راهی پیشرفت یا کنترل
هوشمصنوعی انقلابی تکنولوژیک به راه انداخته است، به همان اندازه عظیم که ظهور رایانههای مرکزی یا کامپیوترهای شخصی. هوش مصنوعی میتواند یک پزشک مجازی ارزانقیمت روی هر گوشی هوشمند یا یک معلم رایگان برای هر کودکی باشد. این فناوری میتواند به عنوان یک عامل برابریبخش و یک میانبر کاهندهی هزینه عمل کند، ابزاری که به نجات جان انسانها و کاهش فقر کمک میکند.
اما اکنون در سیلیکون ولی و به طور فزایندهای در واشنگتن دیسی، یک جدال ایدئولوژیک بر سر آیندهی هوش مصنوعی در جریان است. گروه کوچکی از سرمایهگذاران میلیاردر عصر اینترنت، با هم درگیر یک جنگ لفظی و نفوذ شدهاند تا تعیین کنند که آیا آیندهی هوشمصنوعی بر مبنای «ایمنی کنترلشده» یا «پیشرفت مهارنشده» خواهد بود.
افسانههای دنیای فناوری، وینود خسلا و رید هوفمن، که هر دو در ردیف ۱۰تای فهرست Forbes Midas List از برترین سرمایهگذاران خطرپذیر قرار گرفتهاند، خوشبینی خود را نسبت به پتانسیل هوشمصنوعی، با نگرانی از هزینههای بالقوهی وحشتناک آن تعدیل میکنند. خسلا، مدیرعامل سابق Sun Microsystems و بنیانگذار Khosla Ventures، در مورد یک مسابقهی تسلیحاتی مخرب هوشمصنوعی با چین و خطر به اشتراک گذاشتن مدلهای پیشرفتهی هوشمصنوعی آمریکا با رقیبش هشدار میدهد. رید هوفمن، همبنیانگذار لینکدین و سرمایهگذار در Greylock، تصور تکثیر یک سلاح بیولوژیکی با هوش مصنوعی را میکند که میتواند به ۱۰۰ میلیون نفر آسیب بزند.
برای هوفمن، خسلا و گروه قدرتمندی از رهبران فناوری، راهی واضح برای کاهش پیامدهای ناخوشایند و ناخواسته وجود دارد: کنترل توسعهی هوشمصنوعی و تنظیم نحوهی استفاده از آن. غولهای فناوری، گوگل و مایکروسافت، به همراه سازندهی ChatGPT که هر دو خسلا و هوفمن سرمایهگذاران اولیهی آن بودهاند، با این ایده همراه هستند. دیدگاه آنها دربارهی لزوم وجود حفاظهایی برای رسیدن به آرمانشهر هوش مصنوعی، مورد توجه رئیسجمهور بایدن نیز قرار گرفته است، که این دو سرمایهگذار خطرپذیر از حامیان مالی او هستند.
اما منتقدان فزایندهی این موضوع، دست به انجام هر کاری خواهند زد تا خسلا، هوفمن و متحدان «فناوری بزرگ» آنها را ناکام بگذارند. این گروه به رهبری مارک اندریسن، سرمایهگذار فهرست میداس و بنیانگذار نتاسکیپ و شرکت سرمایهگذاری خطرپذیر a16z، همکارش مارتین کاسادو و گروهی ناهمگون از طرفداران رفع مقررات و طرفداران سرسخت متنباز (The open-source absolutists)، مانند بیل گورلی، سرمایهگذار و یان لوکان، دانشمند ارشد هوش مصنوعی متا، و همچنین ایلان ماسک، مدیرعامل تسلا و مالک X، صحبتهای مطرح شده دربارهی فجایع و ریسکهای سطح بالای این موضوع را تلاشی از جانب صاحبان اولیهی قدرت هوش مصنوعی برای حفظ آن میدانند.
لوکان میگوید: «هیچ مسئلهی امنیتی با وجود تکنولوژی فعلی وجود ندارد.»
اما همه احساس فوریت میکنند، چه در شکلدهی به گفتوگو با قانونگذاران و چه در اطمینان از اینکه ذینفعان کمقدرتتر عقب نمیمانند. فی-فی لی، پیشگام این حوزه و مدیر مشترک مؤسسهی هوشمصنوعی انسانمحور استنفورد، میگوید که دربارهی معنای محدودیتهای مقرراتی برای بخش علمی و بخش دولتی، «نگرانی واقعی» دارد.
تاریخ آخرین آپدیت: ۳۰ام خرداد ۱۴۰۳