آژانس اخبار سایبری ایران

سه‌شنبه ۱۴۰۴/۴/۲۴ ساعت 04:48:24 info@icyna.ir

گوگل از مدل DeepThink رونمایی کرد

۱۴۰۴/۰۳/۰۵
18:49:41
در کنفرانس توسعه‌دهندگان Google I/O 2025، گوگل از آغاز آزمایش مدل استدلال‌گر جدید DeepThink برای نسخه Gemini 2.5 Pro خبر داد.

در کنفرانس توسعه‌دهندگان Google I/O 2025، گوگل از آغاز آزمایش مدل استدلال‌گر جدید DeepThink برای نسخه Gemini 2.5 Pro خبر داد. مدیرعامل شرکت DeepMind اعلام کرد که این مدل بر پایه پیشرفته‌ترین تحقیقات هوش مصنوعی طراحی شده و قادر است پیش از ارائه پاسخ، چندین فرضیه مختلف را به‌صورت همزمان بررسی کند. گوگل مدعی است که DeepThink در ارزیابی‌هایی با استفاده از سؤالات المپیاد ریاضی ایالات متحده ۲۰۲۵، نتایج قابل توجهی کسب کرده است. با این حال، به منظور تضمین ایمنی و دقت، این مدل در ابتدا تنها از طریق API جمینای و برای آزمایش‌کنندگان منتخب در دسترس خواهد بود تا بازخوردهای تخصصی جمع‌آوری شود. نسخه بهبود یافته Gemini 2.5 Flash گوگل همچنین از نسخه بهینه‌شده Gemini 2.5 Flash رونمایی کرد که با هدف افزایش سرعت و کارایی طراحی شده است. این نسخه جدید در مقایسه با نسل قبلی، کارآمدتر عمل می‌کند، مصرف توکن‌ها را کاهش داده و در زمینه‌هایی همچون استدلال، قابلیت چندوجهی، کدنویسی و درک متون طولانی عملکرد بهتری ارائه می‌دهد. این نسخه قرار است در ماه‌های آینده به‌صورت عمومی عرضه شود. در حال حاضر، پیش‌نمایش Gemini 2.5 Flash از طریق Google AI Studio برای توسعه‌دهندگان، Vertex AI برای مشتریان سازمانی و اپلیکیشن Gemini برای عموم کاربران در دسترس است. قابلیت‌های جدید و پروژه‌های آتی گوگل اعلام کرد که ویژگی Thinking Budgets، که به کاربران امکان تنظیم تعادل بین مصرف توکن، دقت و سرعت پاسخ را می‌دهد، به نسخه پیشرفته‌تر Gemini 2.5 Pro نیز اضافه خواهد شد. همچنین، پروژه جدید Mariner به API جمینای و Vertex AI افزوده شده است. این پروژه شامل عوامل هوش مصنوعی مبتنی بر Gemini است که می‌توانند صفحات وب را برای انجام وظایف مختلف پیمایش کنند. گوگل قصد دارد این قابلیت را از تابستان امسال به طور گسترده‌تر در دسترس توسعه‌دهندگان قرار دهد. علاوه بر این، گوگل در حال انتشار پیش‌نمایش جدیدی از قابلیت تبدیل متن به گفتار (Text-to-Speech) در هر دو مدل ۲.۵ پرو و ۲.۵ فلش است که از ۲۴ زبان با دو صدای مختلف پشتیبانی می‌کند و از طریق API جمینای در دسترس خواهد بود.