Anthropicの創立から初期研究、Claudeの開発、同社の安全性重視のAI研究を形作った主要なマイルストーンまでの歴史をたどります。

AnthropicはClaudeファミリーの言語モデルで知られるAI研究・製品企業です。大規模AIシステムに関する深い経験を持つ研究者によって設立され、基礎研究、実用製品、そしてAI安全性・アラインメントの取り組みが交差する位置にあります。
この記事では創立当初から現在に至るAnthropicの歴史をたどり、同社の考え方、意思決定、重要なマイルストーンがどのように形作られたかを年代順に整理します。まずAnthropic設立前のAI研究の文脈を概観し、創業メンバーや初期チーム、ミッションと価値観、技術的基盤、資金調達と成長、ClaudeからClaude 3.5への製品進化、そして広い研究コミュニティにおける役割へと進みます。
Anthropicの歴史は単なる社史以上の意味を持ちます。設立時から同社はAIの安全性とアラインメントを単なる付帯作業ではなく中心的な研究課題として扱ってきました。Constitutional AI、徹底したレッドチーミング、モデル評価による安全性検証などは副次的な活動ではなく、システムの構築と展開の中核を成しています。この姿勢は他の研究所や政策立案者、顧客が高度なモデルについて考える方法に影響を与えています。
ここでの目標は事実に即したバランスの取れた概観を提供することです:Anthropicが何を目指し、Claudeや関連ツールの開発がどのように進化し、どの研究方向が重要だったか、安全性配慮がどのように同社のタイムラインとマイルストーンを形作ったかを理解してもらうことにあります。宣伝資料ではなく、影響力あるAI企業が急速な技術進展と長期的安全性をどう調和させようとしたかを理解したい読者に向けた歴史的概観です。
2010年代後半までに、深層学習は画像認識や音声認識を変革していました。ImageNetを制した畳み込みネットワーク、大規模な音声認識器、実用的な機械翻訳システムは、データと計算資源のスケーリングが新たな能力を引き出すことを示しました。
転機となったのはトランスフォーマーアーキテクチャ(Vaswaniら、2017年)です。再帰型ネットワークとは異なり、トランスフォーマーは長距離依存性を効率的に処理し、GPU上での並列化に適していました。これにより広範なテキストコーパスで大規模モデルを訓練する道が開かれました。
GoogleのBERT(2018年)は汎用テキストで事前学習し、その後ファインチューニングする手法が多くのNLPタスクを凌駕することを示しました。続いてOpenAIのGPTシリーズはこの考えをさらに進め、単一の大規模自己回帰モデルを訓練し、スケールと最小限のプロンプトによってタスクをこなす、という方向を提案しました。
2019〜2020年ごろ、ニューラルスケーリング則に関する研究は実務者が観察していた現象を定式化しました:モデル性能はパラメータ数、データ量、計算量の増加に伴って予測可能に改善するということです。大規模言語モデルは次のような効果を示しました:
GPT-2(2019)やGPT-3(2020)は、単なる規模の拡大が汎用的テキストモデルを翻訳、要約、質問応答など多用途な道具に変えることを示しました。
こうした進歩と並行して、研究者や政策担当者の間では、より高性能なモデルの構築と展開がもたらすリスクについての懸念が増しました。議論されたリスクには以下が含まれます:
GPT-2の部分的な公開(悪用リスクを理由に段階的に行われたこと)は、主要な研究機関がこれらの問題にリアルタイムで対処していることを示すシグナルでした。
学術団体や非営利団体(BerkeleyのCHAI、Future of Humanity Institute、Center for Security and Emerging Technologyなど)は、アラインメント戦略、解釈可能性ツール、ガバナンス枠組みを探求していました。DeepMindやOpenAIも内部に安全チームを作り、報酬学習、スケーラブルな監督、価値の整合性などについての研究を公開し始めました。
2020年代初頭までに、大手ラボやテック企業間の競争圧力はモデルの急速なスケーリングとアグレッシブな展開スケジュールを促しました。公開デモや商用APIは生成AIへの強い需要を示し、それが大きな投資を呼び込みました。
一方で、多くの研究者は安全性、信頼性、ガバナンスが能力向上に追いついていないと主張しました。アラインメントに関する技術的提案はまだ初期段階であり、失敗モードの経験的理解は限られ、評価手法は十分に成熟していませんでした。
この「より大きく、より汎用的なモデルを追求する動き」と「より慎重で方法論的な開発を求める声」との緊張が、Anthropic設立直前の研究環境を特徴づけていました。
Anthropicは2021年にDarioとDaniela Amodeiらによって設立され、当時最先端のAI研究に関与していた小規模な同僚グループが合流しました。
DarioはOpenAIで言語モデルチームを率い、スケーリング則、解釈可能性、AI安全性に関する影響力ある研究に貢献していました。DanielaはOpenAIで安全性と政策分野を率い、神経科学や計算研究のバックグラウンドから複雑系の振る舞いと失敗についての知見を持っていました。周囲にはOpenAI、Google Brain、DeepMindなどの研究者やエンジニアが集まり、初期の大規模モデルを訓練・展開・評価した経験を共有していました。
2020〜2021年の時点で、大規模言語モデルは推測段階を越え、製品や公共の議論に影響を与える実用的なシステムになっていました。創業グループはその可能性とリスクの両方を目の当たりにしており、特に急速な能力向上、予想外の出現的振る舞い、安全技術の未成熟さを問題視していました。
Anthropic設立の主な理由は次の通りです:
Anthropicは「安全性を中心に据える」ことを組織の基本原則とするAI研究会社として構想されました。安全性を後付けにするのではなく、モデルの設計、訓練、評価、展開の全工程に織り込む意図がありました。
初期からAnthropicのビジョンは、最先端のAI能力を前進させつつ、同時に解釈可能で制御しやすく信頼できるシステムを作ることでした。
具体的には次を意味しました:
創業者たちは、スケーリングや能力公開、顧客との協業の判断が商業的圧力の下で場当たり的に決まるのではなく、安全性や倫理の観点を系統的に通す組織を作る機会があると考えました。
Anthropicの最初の採用はこの哲学を反映していました。初期チームは次の要素を組み合わせていました:
この混成はAnthropicがAIを単なる工学課題ではなく社会技術的プロジェクトとして扱う基盤を作りました。モデル設計、インフラ、評価、展開戦略は設立当初から研究者、エンジニア、ポリシー担当が共同で議論しました。
会社の創設は、急速にスケールするシステムをどう扱うかについて、アクセスの開放 vs APIによる制限、オープンソース化 vs 管理された公開、計算資源の集中化、長期的リスクの取り扱いなどが活発に議論されていた時期と重なっていました。
Anthropicはそのような議論の中心的問いに答える試みとして位置づけられました:安全性と長期的責任を明確に指向しつつ研究を前進させる最前線のAIラボはどのような構造、手法、文化を持つべきか、という問いへの一案です。
Anthropicは「信頼でき、解釈可能で制御可能なAIシステムを作り、最終的に社会の利益になること」を明確なミッションとして掲げて設立されました。創業当初から、同社は単に能力あるモデルを作るのではなく、より能力が増すにつれて高度なAIがどのように振る舞うかを形作ることを目標にしてきました。
AnthropicはAIの振る舞いに関する価値観を3語で要約しています:Helpful(役に立つ), Honest(正直), Harmless(有害でない)。
これらの価値観は単なるマーケティング用語ではなく、工学的目標として働きます。訓練データ、評価スイート、展開ポリシーはこれら3つの次元での測定と改善を念頭に置いて設計されます。
AnthropicはAI安全性と信頼性を設計上の主要制約として扱い、これが大規模な投資につながりました。投資領域の例は次の通りです:
同社の公開発信は一貫して、強力なAIシステムがもたらす長期リスクと予測可能で検査可能な振る舞いの必要性を強調しています。
価値観を実装するため、AnthropicはConstitutional AIを導入しました。人間のフィードバックのみに依存するのではなく、広く受け入れられる基準(人権や一般的な安全指針など)から成る文書化された“憲法”を用いてモデルの挙動を誘導します。
モデルは次のように訓練されます:
この方法はアラインメント監督をスケールさせることを目指しており、各応答に対して常に人手で評価する必要を減らします。また、支配的ルールが明示されているためモデル挙動の透明性が高まり、原則は時間をかけて議論・更新できます。
Anthropicのミッションと安全重視の姿勢は、追求する研究方向と出荷方法に直接影響します。
研究面では次を優先します:
製品面では、Claudeのようなツールは初めから安全制約を組み込む設計になっています。拒否振る舞い、コンテンツフィルタリング、システムプロンプトはコア機能として扱われ、企業向け提供では監査可能性、明確な安全ポリシー、予測できる振る舞いが強調されます。
ミッションを具体的な技術選択(Helpful/Honest/Harmlessの目標、憲法的トレーニング、解釈可能性と安全研究)に結びつけることで、Anthropicは能力と安全を密接に結びつけた進化を歩んできました。
初期からAnthropicは安全研究と能力開発を一体化した課題として扱いました。技術的な重点は大きく以下の流れに分けられます。
初期研究の主要な分野は、プロンプト、訓練信号、展開設定の違いによって大規模言語モデルがどのように振る舞うかの調査でした。チームは系統的に次を調べました:
この作業は「有益さ」と「無害さ」の構造化された評価とトレードオフの追跡につながり、内部ベンチマークの整備を促しました。
AnthropicはRLHF(人間のフィードバックによる強化学習)を基盤にしつつ独自の改良を加えました。研究では次のような実験が行われました:
これらの知見はConstitutional AIの初期開発に活かされ、原則に基づくモデル修正という発想を補強しました。
もう一つの柱は解釈可能性の研究で、モデル内部がどのように概念を表現しているかを調べる作業です。Anthropicはニューラルネットワークの特徴や回路に関する研究を公開し、層や活性化にまたがる概念表現の探査を行いました。
探索的な段階ではあるものの、これらの研究は後の機械的解釈可能性(mechanistic interpretability)プロジェクトの基盤を築き、「ブラックボックス」システムを開く方向性を示しました。
これらを支えるためにAnthropicは評価に大きく投資しました。専任チームが敵対的プロンプト、シナリオテスト、自動チェックを設計し、本番投入前にエッジケースを発見する体制を整えました。
評価フレームワークを第1級の研究成果として扱い、反復・バージョン管理・公開を行うことで、Anthropicは安全重視の方法論を実装した研究所としての評価を早期に確立しました。
Anthropicの軌跡は若い研究企業としては異例の大規模な資金調達によって形作られました。
公開報道によれば、2020–2021年の初期シードとシリーズAで基幹的人材を採用し、真剣なモデル訓練を始めるための資金が確保されました。2022年には報道で約5.8億ドルとされるシリーズBが発表され、計算資源とデータのコストが高いフロンティア規模の研究で競争することを可能にしました。
2023年以降は資金調達の中心が主要クラウドプロバイダとの戦略的パートナーシップに移り、GoogleやAmazonとの数十億ドル規模の投資枠組み(株式投資とクラウド・ハードウェアの長期コミットメントを組み合わせたもの)が発表されました。これらのパートナーシップは資金だけでなく大規模GPUやTPUへのアクセスを確保しました。
この資金流入は直接的に次を可能にしました:
公開報道によれば、創業当初の小規模なグループ(主に元OpenAIの研究者やエンジニア)から数百人規模へと人員が拡大し、純粋なML研究を超えた多様な役割が生まれました。
資金によりAnthropicは次の人材を採用しました:
この布陣はAnthropicが安全性を研究テーマに留めず、組織機能として実装しようとしていることを示しています。
資金が拡大するにつれて、Anthropicは長期的な安全研究と短期的な製品開発の両立が可能になりました。初期は基礎研究と基盤モデル訓練に資源の大半が投じられていましたが、後期のラウンドとクラウドパートナーシップにより次が可能になりました:
その結果、研究色の強い小さな創業チームから、安全性研究と内部ガバナンスに大きく投資しつつ商用製品としてのClaudeを反復できるより構造化された組織へと移行しました。
ClaudeはAnthropicの主要な製品ラインであり、公開面でも研究面でも同社の顔です。招待制のリリースからClaude 3.5 Sonnetに至る各世代は、能力向上と信頼性・安全性の強化を同時に目指してきました。
初期のClaudeは2022年から2023年初頭にかけて小規模なパートナーでテストされ、執筆、分析、コーディング、会話を得意とする汎用テキストアシスタントとして設計されました。これらのモデルは有害性回避を重視し、危険なリクエストへの一貫した拒否、限界の明示、説得より正直さを重視する会話スタイルが特徴でした。
同時に文脈長(コンテキストウィンドウ)を拡張し、長大なドキュメントやマルチステップの対話を扱えるようにすることで、要約、契約レビュー、リサーチワークフローでの有用性を高めました。
Claude 2(2023年中頃)ではアプリとAPIを通じてアクセスが広がりました。モデルは構造化された文章、コーディング、複雑な指示の遂行能力が向上し、非常に長いコンテキストウィンドウを提供できるようになりました。
Claude 2.1ではこれらの改善が洗練され、事実タスクでの幻覚が減り、長文のリコールが向上し、安全性の振る舞いも一貫性を増しました。企業は顧客対応の草案作成、政策分析、社内ナレッジアシスタントとしてClaudeを利用し始めました。
Claude 3ファミリー(Opus、Sonnet、Haiku)は推論能力、速度オプション、マルチモーダル入力の主要な飛躍を導入しました。これによりユーザーはテキストだけでなく画像や複雑なドキュメントに対しても質問できるようになり、より大きな文脈ウィンドウと指示遵守の改善が新たなユースケースを開きました。
Claude 3.5 Sonnet(2024年中頃リリース)はさらに踏み込み、中価格帯でほぼトップクラスの推論・コーディング品質を提供し、対話的製品に適した高速応答を実現しました。ツール使用や構造化出力が顕著に改善され、関数呼び出し、データベース、外部APIとの統合が容易になりました。
各バージョンにおいて、Anthropicは性能向上と並行して安全性と信頼性の強化を行いました。Constitutional AI、綿密なレッドチーミング、体系的な評価はリリースごとに更新され、拒否挙動、プライバシー保護、透明性を能力の拡大に合わせて維持する努力が続けられました。
ユーザーや顧客のフィードバック(厳格なプライバシー規則下で扱われるログ、サポートチケット、パートナーシッププログラムからの示唆)は、Claudeが誤解する点、過剰に拒否する点、不明瞭な応答をする点を浮き彫りにしました。これらの知見は訓練データ、評価スイート、製品設計に還元され、実験的アシスタントから汎用で運用可能なAIへと進化する上で重要な役割を果たしました。
Anthropicのモデルは研究室の外へ比較的速やかに移行し、強力な推論、明確な制御、予測可能な振る舞いを求める組織に受け入れられました。
初期のユーザーベースは主に次のセグメントに集中しました:
この混合によりAnthropicはコンプライアンス重視の大企業環境とアジャイルなプロダクトチーム双方にClaudeを合わせ込むことができました。
いくつかの公開協業はAnthropicのインフラ進出を示しています:
これらの取り決めは直接APIの顧客範囲を超えてAnthropicの到達範囲を広げました。
AnthropicはAPIを狭いチャットサービスではなく「汎用の推論・アシスタント層」として位置づけました。ドキュメントとサンプルは次を強調しています:
このためClaudeは独立した目的地アプリというより、既存プロダクトや社内アプリ、データパイプラインに自然に組み込まれる形で使われることが多くなりました。
業種を問わずいくつかのパターンが見られます:
これらの用途は通常、Claudeの言語能力と顧客データや業務ロジックを組み合わせて既存システムに組み込まれます。
Anthropicの商用メッセージは安全性、制御性、予測可能性を強調しました。技術資料やマーケティングは次を前面に打ち出しました:
金融、医療、教育などリスク感度の高い顧客にとって、これらの強調点は単なる性能以上に重要であり、Claudeの導入場所と方法を規定しました。
設立当初からAnthropicはガバナンスと安全を設計制約として扱っており、それはモデルの訓練、評価、公開、運用のあり方に表れています。
Anthropicはモデルの段階的展開を公に約束しており、内部の安全レビューと『責任あるスケーリング方針』に従っています。主要リリース前にはサイバー悪用、説得、生命科学的支援といった潜在的に危険な能力について広範な評価を実施し、その結果をもとに出荷や制限、さらなる強化の判断を行います。
レッドチーミングは中心的要素です。専門家や外部の評価者にモデルを徹底的に検証させ、どの程度容易に有害な内容や手順を引き出せるかを測定します。得られた知見は安全微調整、製品ガードレール、ポリシー更新に反映されます。
安全レビューはリリースで終わりません。Anthropicは悪用報告の追跡、アップデートによる振る舞いの変化監視、顧客フィードバックやインシデントレポートを活用してモデル設定、アクセス制御、デフォルト設定を改善し続けます。
Constitutional AIはAnthropicの最も特徴的な安全手法です。人手ラベルだけに頼るのではなく、文書化された“憲法”に従ってモデルが自らの出力を検証・修正するように訓練します。
これらの原則は人権文書や一般的なAI倫理ガイドラインといった公開資料に基づきます。目的は、問題のある出力を単にフィルタリングするのではなく、その理由を説明し修正できるモデルを作ることです。
Constitutional AIはAnthropicのミッションを実際に動かす仕組みとして、強力なシステムを明確で検査可能な原則に整合させることを目指しています。
Anthropicのガバナンスは完全に社内完結ではありません。政府や同業研究所との安全コミットメントへの参加、技術ベンチマークや評価の寄与、先端モデルの監督に関する国際的議論への参画などを通じて外部と関わっています。
公開記録には議会での証言や助言的役割、UK AI Safety Summit等への参加、危険性評価のための専門組織との協働などが含まれます。外部チャネルへの関与は二つの目的を果たします:Anthropicの実務が外部の批判にさらされること、そして安全・評価・アラインメント手法を広い規範やルールに翻訳することです。
こうしてガバナンス慣行、レッドチーミング、Constitutional AIのような構造化手法は、能力の拡大に伴ってリスクを系統的に減らし、説明責任を高めるという会社の初期ミッションを反映しています。
AnthropicはOpenAI、DeepMind、Google、Metaと並ぶフロンティアラボの一つですが、安全性と解釈可能性を主要な研究課題として前面に出すことで独自のアイデンティティを築いています。
初期の論文発表から、Anthropicは他ラボが二次的に扱いがちな問題(アラインメント、失敗モード、スケーリングに伴うリスク)に注力してきました。Constitutional AIやレッドチーミング手法、解釈可能性関連の仕事は、競合組織の研究者にも広く読まれています。
主要会議やプレプリントでの技術公開を通じて、Anthropicの研究者は能力結果を制御性や信頼性の問いと結びつけつつ共有しており、ラボ間の進展に寄与しています。
AnthropicはAI安全に関する公開議論で目立った役割を果たしてきました。会社のリーダーや研究者は:
これらの場で、Anthropicは具体的で検証可能な安全基準、独立した評価、最先端システムの段階的展開を主張することが多く、制度化に向けた議論を促しています。
Anthropicは有害性や悪用可能性、欺瞞行動をストレステストするようなベンチマークや評価に参加しています。研究者たちは論文発表、ワークショップでの発表、学界との共同研究を通じて解釈可能性、スケーリング挙動、好み学習に関する知見を公開しています。
Anthropicは最大規模モデルを無条件にオープンソースで公開するラボではありませんが、その手法や評価実務はオープンソースコミュニティにも影響を与え、Constitutional AIや特定の評価手法は小規模モデルを安全化しようとするプロジェクトで採用されています。
Anthropicの歩みは、強力なモデルの開発と統治の在り方が変わってきたことを反映します。初期の大規模モデル研究は能力の獲得が中心でしたが、時間とともに悪用、制度的リスク、長期的アラインメントの懸念が研究の中心に移ってきました。
安全性を明確に組織の中心に据え、解釈可能性に投資し、政府と連携することで、Anthropicはこの変化を加速する役割を果たしてきました。その歴史は、最先端の能力研究と厳密な安全研究が今や分野の期待となりつつあることを示しています。
Anthropicのこれまでの物語は中心的な緊張を浮き彫りにします:意味ある安全研究は通常、能力を前進させることに依存するが、その進展は新たな安全問題を生む、という点です。同社の歴史は、公にその緊張を管理する一つの試みとして読むことができます。
Anthropicは汎用AIシステムが高機能化した際に確実に制御可能であるかを懸念した研究者によって始められました。これは初期の優先事項(解釈可能性研究、Constitutional AIのようなアラインメント手法、慎重な展開方針)に色濃く反映されています。
Claudeモデルが能力と商業的重要性を増すにつれて、当初の動機は目に見える形で存続していますが、顧客要件、競争、迅速なスケーリングという現実圧力の中で運用されています。同社の軌跡は、安全研究とプロダクト開発を分離せずに結びつけ続けようとする試みとして解釈できます。
公開資料から示される長期的な目標には次が繰り返し現れます:
焦点は壊滅的な失敗の回避だけでなく、多様な組織が変革的影響に近づいたときでも確実に導ける技術の実現にあります。
Anthropicやこの分野全般に残る重要な不確定要素は以下の通りです:
Anthropicの歴史を理解することは現在の取り組みを文脈化する助けになります。モデルの公開判断、安全報告、外部評価者との協働、政策対話への参加は孤立した決定ではなく、制御性・信頼性・長期的影響に関する創業時の懸念から導かれてきたものです。
Anthropicがより能力の高いClaudeモデルと幅広い実世界統合を追求する中で、過去の選択は有益と慎重の両立をどう実現するかを読み解く有用なレンズを提供します。どの程度そのバランスに成功するかは、同社の将来だけでなくAI開発の進路全体を左右する可能性があります。
Anthropicは、Claudeファミリーで知られる大規模言語モデルの研究と製品開発を行うAI企業です。以下の3領域を横断しています:
創業以来、Anthropicは安全性とアラインメントを単なる付帯事項ではなく中核の研究課題として扱い、この方針が技術、製品、ガバナンスのあり方に反映されています。
Anthropicは2021年にDarioとDaniela Amodeiらによって設立され、OpenAI、Google Brain、DeepMindなどの研究者が加わりました。創業メンバーは初期の大規模言語モデルの訓練・運用を直接経験しており、その可能性とリスクの双方を目の当たりにしていました。
設立の動機には次のような懸念がありました:
Anthropicは安全性と長期的な社会的便益を設計上の主要制約とする組織として発想されました。
Helpful(役に立つ)、Honest(正直)、**Harmless(有害でない)**という3つの目標が実践面で意味することは次の通りです:
これらは単なるスローガンではなく工学的目標であり、訓練データ、評価指標、安全方針、リリース判断などに具体的に組み込まれます。
Constitutional AI は、単なる人間の評価に依存する代わりに、事前に定めた原則の「憲法」を用いてモデルの振る舞いを誘導する手法です。
実務では次のように運用されます:
この手法は以下を目指します:
Anthropicの初期の研究優先事項は能力と安全性を一体化したものでした。主な方向性は次のとおりです:
これらは製品開発(Claude)と密接に結びついた形で進められました。
Anthropicは大規模な資金調達と戦略的パートナーシップによって成長を支えました。
これらの資金は主にClaudeモデルの訓練用コンピュート、評価と安全研究のためのツール類、研究/エンジニアリング/ポリシー人材の拡充に充てられました。
ClaudeはAnthropicの主要な製品ラインであり、公開された世代を通じて能力向上と安全性の強化を両立させてきました。
世代ごとの概略は次の通りです:
Claudeは研究室の枠を越えて速やかに実用化され、推論力や制御性、予測可能な振る舞いを求める組織に採用されました。
典型的な導入先は次の通りです:
また、QuoraのPoeやNotionなどのプロダクト、DuckDuckGoを含む検索・ブラウジングアシスタント、クラウドパートナー経由での企業利用など、さまざまな協業が行われています。商用利用では安全性・スティアラビリティ(制御可能性)・予測可能性を前面に打ち出したメッセージが重要視されました。
Anthropicはモデルの訓練、評価、リリース、運用の各段階でガバナンスと安全性を設計制約として扱っています。
主な取り組みは次の通りです:
AnthropicはOpenAI、DeepMind、Google、Metaと並ぶフロンティアラボの一角に位置しますが、安全性と解釈可能性を中核課題として明確に据えた点で独自性を持っています。
Anthropicの歩みは、最先端の能力研究と厳密な安全研究がますます結びつくという分野全体の変化を反映しています。
Anthropicの歴史は、能力向上と安全性の緊張関係を管理する試みとして読むことができます。
今後の長期目標には次が含まれます:
未解決の重要な問いとしては、アラインメント技術が能力の進展に追いつけるか、商業的・地政学的圧力が慎重なスケーリングを損なわないか、解釈可能性や評価が実運用で十分に機能するか、といった点があります。
各バージョンで性能向上と並行して、Constitutional AIやレッドチーミング、評価スイートが更新され、安全挙動やプライバシー保護の強化が図られました。
これらは創業時からの「安全を中核に据える」という方針の具体化です。