به گزارش سینا از «خبرگزاری علم و فناوری»؛ مرکز تحقیقات هوش مصنوعی پارت بعد از معرفی مدل بزرگ زبانی توکا در ماه قبل، اکنون از تازهترین دستاورد خود در زمینه مدلهای بزرگ زبانی با 8 میلیارد پارامتر با نام “درنا” رونمایی کرد و بهصورت متنباز و رایگان در دسترس اکوسیستم هوش مصنوعی کشور قرار گرفت.
داشتن مدل زبانی بومی فارسی برای توسعه ابزارهای هوشمند تعاملی فارسیزبانان، نیاز مبرم توسعهدهندگان است و مرکز تحقیقات هوش مصنوعی پارت برای پاسخ به این نیاز و نیز ایجاد همکاری بیشتر در زیستبوم هوش مصنوعی فارسی، نسخه متنباز مدل زبانی 8میلیاردپارامتری درنا را در دسترس همگان قرار داده است.
هوش مصنوعی درنا از جدیدترین معماری و فناوری روز دنیا در زمینه مدلهای زبانی بهره میبرد که باعث میشود این مدل فارسی حتی در مقایسه با برخی مدلهای بزرگتر از خود، کارکرد بهتری داشته باشد و عملکردی دقیقتر از تمامی دیگر مدلهای فارسی منتشرشده تا امروز ارائه دهد و در شاخصهای زبان فارسی از بسیاری از مدلهای مطرح دنیا پیشی گیرد.
انتشار این مدل زبانی از گروه LLMهای درنا بهصورت منبع باز از دستاوردهایی است که شرکت دانشبنیان پارت بهپشتوانه توانایی نیروی متخصص و تجربه چندینساله خود در پروژههای خرد و کلان متعدد کسب کرده است، این دستاورد کنار اهداف دیگری قرار میگیرد که در این سالها این مجموعه دانشبنیان به آنها دست یافته است.