最新情報

日本語大規模言語モデル「Japanese Stable LM 2 1.6B」をリリースしました
製品 naomi isozaki 製品 naomi isozaki

日本語大規模言語モデル「Japanese Stable LM 2 1.6B」をリリースしました

日本語大規模言語モデル「Japanese Stable LM 2 1.6B」をリリースしました

Japanese Stable LM 2 1.6B(JSLM2 1.6B)は16億パラメータで学習した日本語の小型言語モデルです。

ベースモデルとしてJapanese Stable LM 2 Base 1.6Bと、指示応答学習(Instruction tuning)済みのJapanese Stable LM 2 Instruct 1.6Bを提供します。両モデルともStability AI メンバーシップで商用利用が可能です。

Read More
Stable Code Instruct 3B のご紹介
製品 naomi isozaki 製品 naomi isozaki

Stable Code Instruct 3B のご紹介

Stable Code Instruct 3Bは、Stable Code 3Bの上に構築された、最新の指示学習済み大規模言語モデルです。このモデルは、コード補完を強化し、自然言語インタラクションをサポートすることで、プログラミングやソフトウェア開発に関連するタスクの効率性と直感性を向上させることを目的としています。私たちの分析によると、Stable Code Instruct 3Bは、様々なコーディング関連タスクにおいて、Codellama 7B InstructやDeepSeek-Coder Instruct 1.3Bなどの同等のモデルを凌駕しています。

Read More
Stable LM 2 1.6B のご紹介
製品 naomi isozaki 製品 naomi isozaki

Stable LM 2 1.6B のご紹介

新しいStable LM 2シリーズから、16億パラメータのベースモデルとインストラクションチューニングバージョンの、私たちの最初の言語モデルを紹介します。Stable LM 2 1.6B は、英語、スペイン語、ドイツ語、イタリア語、フランス語、ポルトガル語、オランダ語の多言語データで学習された、最新の16億パラメータ小型言語モデルです。

Read More
Stable Code 3B - エッジでのコーディング
製品 naomi isozaki 製品 naomi isozaki

Stable Code 3B - エッジでのコーディング

Stable Code Alpha 3BからのアップグレードであるStable Codeは、コード補完に特化し、効率性と多言語サポートにおいて先行製品を凌駕しています。非GPUモデルを含む標準的なノートパソコンと互換性があり、FIMや拡張コンテキストサイズなどの機能を備えています。複数のプログラミング言語に対応し、コーディング効率と汎用性において新たなベンチマークを打ち立てます。

Read More
Stability AI の日本語言語モデルおよび、日本語画像モデルがAPI経由でも利用できるようになりました
製品 naomi isozaki 製品 naomi isozaki

Stability AI の日本語言語モデルおよび、日本語画像モデルがAPI経由でも利用できるようになりました

Fireworks AI は Stability AIと提携をし、Fireworks.ai のプラットフォーム上で Stability AI の日本語言語モデルおよび画像モデルが利用できるようになりました。現在、Japanese SDXL, Japanese Stable VLM, Japanese Stable LM Gamma 7B Beta 70B が利用可能です。

Read More
StableLM Zephyr 3B のご紹介:StableLMに新たな機能を追加し、エッジデバイスに強力な LLM アシスタントを提供
製品 naomi isozaki 製品 naomi isozaki

StableLM Zephyr 3B のご紹介:StableLMに新たな機能を追加し、エッジデバイスに強力な LLM アシスタントを提供

StableLM Zephyr 3B のリリースをお知らせします。これは、軽量 LLM シリーズの最新版であり、インストラクション・フォローや Q&A タイプのタスク向けに調整された新しいチャットモデルです。このモデルは、既存の StableLM 3B-4e1t モデルを拡張したもので、HuggingFace の Zephyr 7B モデルにインスパイアされたものです。StableLM Zephyr の30億パラメータにより、このモデルは、単純なクエリからエッジデバイス上の複雑なインストラクションコンテキストまで、幅広いテキスト生成ニーズに効率よく対応します。

Read More
最高性能の、日本語画像言語特徴抽出モデル「Japanese Stable CLIP」をリリースしました
製品 naomi isozaki 製品 naomi isozaki

最高性能の、日本語画像言語特徴抽出モデル「Japanese Stable CLIP」をリリースしました

Stability AIは商用利用可能な日本語画像言語特徴抽出モデル「Japanese Stable CLIP」をリリースしました。モデル単体では、ゼロショット画像分類(事前にクラス情報を学習せずに画像分類)や任意のテキストから画像を検索する画像検索などの用いることができます。また、他のモデルと組み合わせることで、text-to-image や image-to-text といった生成タスクに拡張することが可能です。

Read More
日本語大規模言語モデル「Japanese Stable LM Beta」シリーズをリリースしました
製品 naomi isozaki 製品 naomi isozaki

日本語大規模言語モデル「Japanese Stable LM Beta」シリーズをリリースしました

Stability AI Japanは、オープンな日本語大規模言語モデルの中で最高性能のものを含む「Japanese Stable LM Beta (JSLM Beta)」シリーズをリリースしました。 各モデルはLlama-2をベースとしており、追加の学習を行うことで日本語の能力や日本に関する知識等を追加し、日本における用途に特化させています。特に、最大サイズの指示応答言語モデルであるJSLM Beta 70Bは、700億パラメータの商用利用可能な日本語言語モデルです。

Read More
日本語大規模言語モデル「Japanese Stable LM 3B-4E1T」「Japanese Stable LM Gamma 7B」を公開しました
製品 naomi isozaki 製品 naomi isozaki

日本語大規模言語モデル「Japanese Stable LM 3B-4E1T」「Japanese Stable LM Gamma 7B」を公開しました

Stability AI Japan は日本語向け大規模言語モデル「Japanese Stable LM 3B-4E1T」及び「Japanese Stable LM Gamma 7B」を公開しました。前者は約30億パラメータ、後者は約70億パラメータのモデルであり、日本語タスクを用いた性能評価において、同等サイズのモデルで最高水準の性能を発揮しています。モデルはすべて商用利用可能な Apache 2.0 ライセンスにて公開しています。

Read More
StableCode をリリースしました
製品 naomi isozaki 製品 naomi isozaki

StableCode をリリースしました

Stability AIは、初のコーディング用LLM生成AI製品であるStableCodeをリリースしました。この製品は、プログラマーの日常業務を支援すると同時に、スキルを次のレベルに引き上げる準備ができている新人開発者向けの優れた学習ツールとしても設計されています。

Read More
日本語言語モデル「Japanese StableLM Alpha」をリリースしました
製品 naomi isozaki 製品 naomi isozaki

日本語言語モデル「Japanese StableLM Alpha」をリリースしました

Stability AI Japan は70億パラメータの日本語向け汎用言語モデル「Japanese StableLM Base Alpha 7B」及び、指示応答言語モデル「Japanese StableLM Instruct Alpha 7B」を一般公開しましたこのモデルはベンチマークスイート「lm-evaluation-harness」による複数の日本語タスクを用いた性能評価において、一般公開されている日本語向けモデルで最高の性能を発揮しています。

Read More