Google, son birkaç haftadır çeşitli Gemini AI modellerini tanıtıyor. Bugün ise, belirli bir kullanıcı kitlesi için yeni ve daha küçük bir model olan Gemma’yı duyurdu. Google, Gemma’nın yapay zeka işlemlerini bulut üzerinden değil, yerel olarak gerçekleştirmeyi tercih eden araştırmacıları hedeflediğini belirtiyor. Dolayısıyla, kullanıcılar buluttaki AI ürünlerinden yerel AI ürünlerine hızlı bir geçiş yapabilecekler.
Gemma, dizüstü ve masaüstü bilgisayarlarda çalışacak şekilde tasarlandı. Google, Gemma’nın DeepMind tarafından geliştirildiğini açıklıyor. Gemma, büyük kardeşi Gemini ile bazı teknik ve altyapı bileşenlerini paylaşsa da, iki ayrı model olarak sunuluyor: Gemma 2B ve Gemma 7B. Araştırmacılar, yerel bilgisayarlarının yanı sıra bulutta da çalışabilen önceden eğitilmiş ve talimatlara göre ayarlanmış Gemma modellerine erişebilecekler.
Google, Gemma 2B (iki milyar parametre) ve 7B (yedi milyar parametre) modellerinin diğer büyük dil modellerine (LLM) kıyasla teknik olarak daha küçük olduğunu belirtiyor. Ancak, Meta’nın Llama 2 gibi daha büyük modellerle karşılaştırıldığında bile önemli başarılar elde ettiklerini iddia ediyor. Parametre sayısı, modelin karmaşıklığını ve potansiyel kapasitesini gösterir. Parametreler ne kadar büyükse, model dil bilgisini o kadar iyi anlayabilir ve daha karmaşık yanıtlar üretebilir. Ancak, daha büyük parametreler aynı zamanda daha fazla kaynak tüketir.
Gemma’nın tanıtımı, yapay zeka alanında yeni bir döneme işaret ediyor. Google’ın bu hamlesi, geliştiricilere daha küçük, yerel AI modelleriyle çalışma imkanı sunarak kullanım çeşitliliğini artırıyor ve sorumlu yapay zeka geliştirmeyi teşvik ediyor. Bu girişim, araştırmacıların ve uygulama geliştiricilerinin daha erişilebilir, çevre dostu ve güvenilir yapay zeka çözümleri oluşturmasına olanak sağlayabilir.