منبع باز هوش مصنوعی ، نه آخرین بازی برای ساخت Akraba Ai Onchain

توضیح: نظرات و نظرات بیان شده در اینجا فقط به نویسنده تعلق دارد و نظرات و عقاید رمزنگاری را نشان نمی دهد.
در ژانویه سال 2025 ، R1 Deepseek بیشترین برنامه رایگان در فروشگاه App App Apple ایالات متحده بود. بر خلاف مدل های ویژه مانند ChatGPT ، Deepseek منبع باز است ، بنابراین همه می توانند به مدل های خود دسترسی ، بررسی ، اشتراک و استفاده کنند.
این تغییر باعث افزایش هیجان در هوش مصنوعی از نظر شفافیت شد و صنعت را به سمت وضوح بیشتر سوق داد. فقط چند هفته پیش ، در فوریه 2025 ، Anthropic Claude 3.7 Sonnet را منتشر کرد ، یک مدل استدلال ترکیبی ، که تا حدی برای پیش نمایش های تحقیق باز بود و همچنین مکالمه پیرامون هوش مصنوعی را تقویت می کند.
با این وجود ، در حالی که این تحولات نوآوری را مستقیماً نشان می دهد ، آنها یک تصور غلط خطرناک را نیز نشان می دهند: هوش مصنوعی منبع باز ، به طور طبیعی ایمن تر (و ایمن تر) از سایر مدل های بسته.
کلمات و سه شنبه
مانند آخرین واسطه های برنامه نویسی Deepseek R1 و Replit ، مدل های AI Open -Source قدرت فناوری در دسترس را به ما نشان می دهد. Deepseek ادعا می کند که این سیستم سیستم خود را با قیمت تنها 5.6 میلیون دلار تشکیل می دهد ، که تقریباً دهم هزینه مدل Lama از متا است. در همین حال ، عامل Replit Super -Charged Claude 3.5 Sonnet's Super -Charged ، حتی رمزگذارها را نیز به شما امکان می دهد تا نرم افزاری را از درخواست های زبان طبیعی ایجاد کنند.
استنتاج بسیار بزرگ است. این بدان معناست که همه ، از جمله شرکت های کوچک ، ابتکارات و توسعه دهندگان مستقل ، می توانند از این مدل (و بسیار محکم) برای ایجاد برنامه های ویژه AI جدید ، از جمله عوامل جدید هوش مصنوعی استفاده کنند. این می تواند یک اقتصاد جدید هوش مصنوعی ایجاد کند ، جایی که دسترسی به مدل ها پادشاه است.
با این حال ، زمان درخشش-شیله-ابعاد-منبع باز با معاینه روزافزون روبرو است. همانطور که در مدل 5.6 میلیون دلاری Deepseek مشاهده می شود ، دسترسی آزاد دموکراتیک نوآوری را دموکراتیک می کند ، اما درهای خطرات سایبر را باز می کند. بازیگران مخرب می توانند این مدل ها را تغییر دهند تا نرم افزار مخرب یا از آسیب پذیری های ایمنی سریعتر از ظهور تکه ها استفاده کنند.
هیچ اقدامی به طور پیش فرض از هوش مصنوعی با منبع باز وجود ندارد. این مبتنی بر میراث شفافیت است که ده ها سال فناوری را تقویت می کند. Historically, the engineers leaned over the system details behind the registered walls and leaned on “security through concealment .. This approach fell: Security vulnerabilities appeared, usually discovered by bad actors. Open-Source translated this model and exposed the code of Deepseek to public examination, such as R1 or Replit's representative, and encouraged flexibility through cooperation. However, neither open nor closed AI models naturally guarantee solid verification.
شرط بندی های اخلاقی نیز بسیار مهم است. هوش مصنوعی منبع باز ، مانند همکاران بسته ، ممکن است تعصبات را منعکس کند یا بر اساس داده های آموزش ، خروجی های مضر ایجاد کند. این یک نقص واضح نیست ؛ مشکل محاسبه شفافیت به تنهایی این خطرات را ریشه کن نمی کند و همچنین از سوء استفاده جلوگیری نمی کند. تفاوت این است که چگونه آن را از نظارت جمعی Open -Source دعوت می کند ، قدرتی که در آن مدل های ثبت شده اغلب از دست نمی روند ، اما هنوز هم مکانیسم هایی را برای اطمینان از یکپارچگی تقاضا می کنند.
نیاز به AI قابل اثبات
منبع باز هوش مصنوعی باید تأیید کند تا آن را قابل اطمینان تر کند. بدون آن ، هر دو مدل باز و سرپوشیده قابل تغییر یا سوءاستفاده هستند ، اطلاعات نادرست را افزایش می دهند یا تصمیمات خودکار را سرگرم می کنند که به تدریج دنیای ما را شکل می دهد. برای دسترسی به مدل ها کافی نیست. آنها همچنین باید کنترل شوند ، در برابر دستکاری و حساب مقاوم باشند.
با استفاده از شبکه های توزیع شده ، blockchains را می توان در برابر خطوط اساسی شناخته شده تأیید کرد که مدل های AI بدون تغییر باقی می مانند ، که داده های آموزشی شفاف باقی مانده و خروجی های آن شناخته شده است. برخلاف این واقعیت که تأیید مرکزی ، که به تکیه بر یک موجودیت بستگی دارد ، رویکرد رمزنگاری غیر متمرکز ، blockchain ، مانع از مداخله بازیگران بد در پشت درهای بسته می شود. علاوه بر این ، این اسکریپت را به کنترل شخص ثالث تبدیل می کند ، یک نظارت شبکه را منتشر می کند و انگیزه هایی را برای مشارکت گسترده تر تا به امروز ایجاد می کند ، جایی که آنها خوشه های داده تریلیون پیش فرض را بدون رضایت یا پاداش کسانی که در اینجا کمک می کنند ، پرداخت می کنند و سپس برای استفاده از نتایج پرداخت می کنند.
یک چارچوب تأیید صحت blockchain لایه های امنیتی و شفافیت را به منبع باز هوش مصنوعی می بخشد. ذخیره مدل ها از طریق اثر انگشت Onchain یا رمزنگاری امکان نظارت بر تغییرات را به وضوح امکان پذیر می کند و به توسعه دهندگان و کاربران اجازه می دهد تا آنچه را که استفاده می کنند تأیید کنند.
ضبط داده های آموزشی در یک blockchain ثابت می کند که مدل ها از منابع خنثی و با کیفیت خارج می شوند و در اثر ورودی هایی ایجاد می شوند که تعصبات پنهان را کاهش یا دستکاری می کنند. علاوه بر این ، تکنیک های رمزنگاری می توانند بدون انتشار داده های شخصی ، خروجی های اشتراک کاربران (معمولاً محافظت نشده) را تأیید کنند و با خیال راحت حفظ حریم خصوصی در هنگام تقویت مدل ها.
طبیعت شفاف و شفاف و شفاف Blockchain ، یک پاسخگویی ناامید کننده هوش مصنوعی باز را ارائه می دهد. هنگامی که سیستم های اطلاعاتی مصنوعی با محافظت اندک در داده های کاربر توسعه می یابند ، blockchain می تواند به کسانی که مشارکت می کنند و ورودی های خود را حفظ می کنند ، پاداش دهند. با بافتن در شواهد رمزنگاری و حاکمیت غیرمتمرکز ، می توانیم یک اکوسیستم هوش مصنوعی ایجاد کنیم که با خیال راحت و کمتر برای غول های مرکزی باز باشد.
آینده هوش مصنوعی مبتنی بر اعتماد است … Onchain
منبع باز هوش مصنوعی بخش مهمی از معما است و صنعت هوش مصنوعی باید برای دستیابی به شفافیت بیشتر تلاش کند ، اما منبع باز بودن هدف نهایی نیست.
آینده و ارتباط هوش مصنوعی نه تنها در مورد دسترسی بلکه در مورد اعتماد ساخته می شود. و اعتماد نمی تواند منبع باز باشد. باید در تمام سطوح پشته AI ساخته ، تأیید و تقویت شود. صنعت ما باید روی لایه تأیید و ادغام هوش مصنوعی ایمن متمرکز شود. در حال حاضر ، امن ترین شرط ماست که AI Onchain را بیاوریم و از فناوری blockchain استفاده کنیم ، آینده ای مطمئن تر را ایجاد کنیم.



