Menelusuri sejarah Anthropic sejak pendirian dan riset awal hingga pengembangan Claude serta tonggak penting yang membentuk pekerjaan AI yang berfokus pada keselamatan.

Anthropic adalah perusahaan riset dan produk AI yang paling dikenal lewat keluarga model bahasa Claude. Didirikan oleh peneliti dengan pengalaman mendalam pada sistem AI berskala besar, Anthropic berada di persimpangan riset dasar AI, produk praktis, dan pekerjaan tentang keselamatan serta penyelarasan AI.
Artikel ini menelusuri sejarah Anthropic sejak asal‑usulnya hingga saat ini, menyoroti gagasan kunci, keputusan, dan tonggak yang membentuk perusahaan. Kita akan bergerak secara kronologis: mulai dari konteks riset AI yang mendahului pendirian Anthropic, lalu mengeksplorasi para pendiri dan tim awal, misi dan nilai perusahaan, fondasi teknisnya, pendanaan dan pertumbuhan, evolusi produk dari Claude ke Claude 3.5, serta perannya dalam komunitas riset AI yang lebih luas.
Sejarah Anthropic penting lebih dari sekadar trivia perusahaan. Sejak awal, Anthropic memperlakukan keselamatan dan penyelarasan AI sebagai pertanyaan riset sentral, bukan pemikiran belakangan. Konsep seperti Constitutional AI, red‑teaming yang luas, dan evaluasi model untuk keselamatan bukan proyek sampingan tetapi bagian inti dari cara Anthropic membangun dan menerapkan sistem. Sikap itu telah memengaruhi bagaimana laboratorium AI lain, pembuat kebijakan, dan pelanggan memandang model‑model maju.
Tujuannya di sini adalah memberi catatan faktual dan seimbang tentang perkembangan Anthropic: apa yang ingin dilakukan perusahaan, bagaimana pekerjaan pada Claude dan alat terkait berevolusi, arah riset mana yang terbukti penting, dan bagaimana pertimbangan keselamatan membentuk garis waktu dan tonggak. Ini bukan brosur korporat, melainkan tinjauan sejarah yang ditujukan bagi pembaca yang ingin memahami bagaimana satu perusahaan AI berpengaruh mencoba menyelaraskan kemajuan teknis cepat dengan kekhawatiran keselamatan jangka panjang.
Di akhir bagian ini, Anda seharusnya memiliki gambaran jelas tentang asal‑usul Anthropic, bagaimana prioritasnya membentuk produk dan risetnya, dan mengapa pendekatannya penting bagi masa depan AI.
Menjelang akhir 2010‑an, deep learning sudah mentransformasi visi komputer dan pengenalan suara. Jaringan konvolusional pemenang ImageNet, pengenal suara skala besar, dan sistem terjemahan mesin praktis menunjukkan bahwa penskalaan data dan compute bisa membuka kapabilitas baru yang mencolok.
Titik balik penting datang dengan arsitektur transformer (Vaswani et al., 2017). Berbeda dengan jaringan rekuren, transformer menangani ketergantungan jarak jauh secara efisien dan mudah diparalelisasi di GPU. Ini membuka jalan untuk melatih model jauh lebih besar pada korpus teks yang sangat besar.
BERT (2018) dari Google menunjukkan bahwa pra‑pelatihan pada teks umum lalu fine‑tuning bisa mengungguli model khusus pada banyak tugas NLP. Tidak lama kemudian, seri GPT dari OpenAI mendorong gagasan lebih jauh: melatih satu model autoregresif besar dan mengandalkan penskalaan plus prompting minimal alih‑alih fine‑tuning spesifik tugas.
Sekitar 2019–2020, penelitian tentang hukum penskalaan (scaling laws) merumuskan apa yang diamati praktisi: kinerja model meningkat secara dapat diprediksi saat parameter, data, dan compute bertambah. Studi menunjukkan bahwa model bahasa yang lebih besar:
GPT‑2 pada 2019, lalu GPT‑3 pada 2020, memperlihatkan bagaimana penskalaan murni bisa mengubah model teks generik menjadi alat fleksibel untuk terjemahan, ringkasan, tanya jawab, dan lebih banyak lagi—sering tanpa pelatihan khusus tugas.
Berseiring kemajuan itu, peneliti dan pembuat kebijakan semakin khawatir tentang bagaimana model yang semakin kapabel dibangun dan diterapkan. Risiko yang dibahas di komunitas teknis dan kebijakan antara lain:
Rilis sebagian GPT‑2, yang dibingkai secara eksplisit terkait risiko penyalahgunaan, menandakan bahwa laboratorium terkemuka sedang bergulat dengan pertanyaan‑pertanyaan ini secara real time.
Kelompok akademis dan nirlaba—seperti CHAI di Berkeley, Future of Humanity Institute, Center for Security and Emerging Technology, dan lainnya—mengeksplorasi strategi penyelarasan, alat interpretabilitas, dan kerangka tata kelola. DeepMind dan OpenAI membentuk tim keselamatan internal dan mulai menerbitkan karya tentang pembelajaran reward, pengawasan yang dapat diskalakan, dan penyelarasan nilai.
Menjelang awal 2020‑an, tekanan kompetitif antar laboratorium dan perusahaan teknologi mendorong penskalaan cepat model dan jadwal penerapan yang agresif. Demo publik dan API komersial menunjukkan permintaan kuat untuk AI generatif, yang kemudian menarik investasi besar.
Pada saat yang sama, banyak peneliti berargumen bahwa keselamatan, keandalan, dan tata kelola belum sejalan dengan peningkatan kapabilitas. Proposal teknis untuk penyelarasan masih awal, pemahaman empiris tentang mode kegagalan terbatas, dan praktik evaluasi belum matang.
Ketegangan ini—antara pengejaran model yang semakin besar dan umum serta seruan untuk pengembangan yang lebih hati‑hati dan metodis—mendefinisikan lingkungan riset yang langsung mendahului pendirian Anthropic.
Anthropic didirikan pada 2021 oleh saudara kandung Dario dan Daniela Amodei serta sejumlah kecil kolega yang telah bertahun‑tahun berada di pusat riset AI mutakhir.
Dario memimpin tim model bahasa di OpenAI dan berkontribusi pada karya berpengaruh tentang hukum penskalaan, interpretabilitas, dan keselamatan AI. Daniela memimpin pekerjaan keselamatan dan kebijakan di OpenAI dan sebelumnya bekerja di bidang neuroscience dan riset komputasional, berfokus pada bagaimana sistem kompleks berperilaku dan gagal. Di sekitar mereka ada peneliti, insinyur, dan spesialis kebijakan dari OpenAI, Google Brain, DeepMind, dan laboratorium lain yang secara kolektif telah melatih, menerapkan, dan mengevaluasi beberapa model skala besar awal.
Pada 2020–2021, model bahasa besar telah beralih dari riset spekulatif ke sistem praktis yang memengaruhi produk, pengguna, dan debat publik. Kelompok pendiri telah menyaksikan baik janji maupun risikonya secara langsung: peningkatan kapabilitas yang cepat, perilaku emergen yang mengejutkan, dan teknik keselamatan yang masih belum matang.
Beberapa kekhawatiran mendorong pembentukan Anthropic:
Anthropic dirancang sebagai perusahaan riset AI yang prinsip organisasinya adalah keselamatan. Alih‑alih memperlakukan keselamatan sebagai tambahan akhir, para pendiri ingin keselamatan dijalin ke dalam cara model dirancang, dilatih, dievaluasi, dan diterapkan.
Sejak awal, visi Anthropic adalah mengembangkan kapabilitas AI terdepan sambil secara bersamaan mengembangkan teknik untuk membuat sistem tersebut lebih dapat diinterpretasikan, dapat diarahkan, dan andal membantu.
Itu berarti:
Para pendiri melihat peluang untuk menciptakan organisasi di mana keputusan tentang penskalaan model, eksposur kapabilitas, dan kemitraan pelanggan secara sistematis disaring melalui pertimbangan keselamatan dan etika, bukan ditangani kasus per kasus di bawah tekanan komersial.
Rekrutmen pertama Anthropic mencerminkan filosofi ini. Tim awal menggabungkan:
Kombinasi ini memungkinkan Anthropic mendekati pengembangan AI sebagai proyek sosioteknis, bukan semata tantangan engineering. Desain model, infrastruktur, evaluasi, dan strategi penerapan dibahas bersama oleh peneliti, insinyur, dan staf kebijakan sejak awal.
Pendirian perusahaan bertepatan dengan diskusi intens di komunitas AI tentang cara menangani sistem yang cepat berkembang: akses terbuka vs API terbatasi, open‑sourcing vs rilis terkontrol, sentralisasi compute, dan risiko jangka panjang dari AI yang tidak terselaraskan.
Anthropic memposisikan diri sebagai upaya menjawab salah satu pertanyaan sentral dalam perdebatan itu: seperti apa membangun laboratorium AI perbatasan yang struktur, metode, dan budayanya secara eksplisit berorientasi pada keselamatan dan tanggung jawab jangka panjang, sambil tetap mendorong batas riset ke depan?
Anthropic didirikan dengan misi jelas: membangun sistem AI yang andal, dapat diinterpretasikan, dan dapat diarahkan, yang pada akhirnya memberi manfaat bagi masyarakat. Sejak awal, perusahaan membingkai pekerjaannya bukan sekadar membangun model kapabel, tetapi membentuk bagaimana AI maju berperilaku saat menjadi lebih kuat.
Anthropic merangkum nilainya untuk perilaku AI dalam tiga kata: berguna, jujur, tidak berbahaya.
Nilai‑nilai ini bukan slogan pemasaran; mereka menjadi target rekayasa. Data pelatihan, rangkaian evaluasi, dan kebijakan penerapan semuanya dibentuk untuk mengukur dan meningkatkan ketiga dimensi ini, bukan hanya kapabilitas mentah.
Anthropic memperlakukan keselamatan dan keandalan AI sebagai kendala desain utama, bukan pemikiran belakangan. Itu diterjemahkan ke dalam investasi besar pada:
Komunikasi publik perusahaan konsisten menekankan risiko jangka panjang dari sistem AI yang kuat dan kebutuhan untuk perilaku yang dapat diprediksi dan dapat diperiksa.
Untuk mengoperasionalisasikan nilai‑nilainya, Anthropic memperkenalkan Constitutional AI. Alih‑alih hanya bergantung pada umpan balik manusia untuk memperbaiki perilaku model, Constitutional AI menggunakan “konstitusi” tertulis berisi prinsip‑prinsip tingkat tinggi—mengambil referensi dari norma yang diterima luas seperti hak asasi manusia dan pedoman keselamatan umum.
Model dilatih untuk:
Metode ini menskalakan supervisi penyelarasan: satu set prinsip yang dipilih dengan hati‑hati dapat membimbing banyak interaksi pelatihan tanpa meminta manusia menilai setiap respons. Ini juga membuat perilaku model lebih transparan, karena aturan yang mengatur dapat dibaca, diperdebatkan, dan diperbarui dari waktu ke waktu.
Misi dan fokus keselamatan Anthropic langsung memengaruhi arah riset yang dikejar dan cara produk dikirim.
Di sisi riset, ini berarti memprioritaskan proyek yang:
Di sisi produk, alat seperti Claude dirancang dengan batasan keselamatan dari awal. Perilaku penolakan, penyaringan konten, dan system prompt yang berlandaskan prinsip konstitusional diperlakukan sebagai fitur produk inti, bukan tambahan. Penawaran enterprise menekankan auditabilitas, kebijakan keselamatan yang jelas, dan perilaku model yang dapat diprediksi.
Dengan mengikat misi ke pilihan teknis konkret—perilaku berguna, jujur, tidak berbahaya; metode pelatihan konstitusional; riset interpretabilitas dan keselamatan—Anthropic memposisikan sejarah dan evolusinya di sekitar pertanyaan bagaimana menyelaraskan sistem AI yang semakin kapabel dengan nilai manusia.
Sejak bulan‑bulan pertama, Anthropic memperlakukan riset keselamatan dan pekerjaan kapabilitas sebagai agenda tunggal yang saling terkait. Fokus teknis awal perusahaan dapat dikelompokkan ke beberapa aliran inti.
Salah satu aliran riset awal mengkaji bagaimana model bahasa besar berperilaku di bawah prompt, sinyal pelatihan, dan pengaturan penerapan yang berbeda. Tim secara sistematis menguji:
Pekerjaan ini menghasilkan evaluasi terstruktur untuk “kegunaan” dan “ketidakberbahayaan,” serta benchmark internal yang melacak trade‑off antara keduanya.
Anthropic membangun di atas RLHF, tetapi menambahkan variasinya sendiri. Peneliti bereksperimen dengan:
Upaya‑upaya ini mengalir ke pekerjaan awal perusahaan pada Constitutional AI: melatih model mengikuti “konstitusi” tertulis daripada hanya mengandalkan peringkat preferensi manusia. Pendekatan itu bertujuan membuat penyelarasan lebih transparan, dapat diaudit, dan konsisten.
Pilar awal lain adalah interpretabilitas—mencoba melihat apa yang “diketahui” model secara internal. Anthropic menerbitkan karya tentang fitur dan sirkuit dalam jaringan neural, menguji bagaimana konsep direpresentasikan di seluruh lapisan dan aktivasi.
Meskipun masih bersifat eksploratif, studi‑studi ini membentuk fondasi teknis untuk proyek interpretabilitas mekanistik selanjutnya, dan memberi sinyal bahwa perusahaan serius membuka sistem “kotak hitam”.
Untuk mendukung semua ini, Anthropic berinvestasi berat pada evaluasi. Tim khusus merancang prompt adversarial, tes skenario, dan pemeriksaan otomatis untuk mengungkap kasus tepi sebelum model dipakai luas.
Dengan memperlakukan kerangka evaluasi sebagai artefak riset kelas satu—diiterasi, diberi versi, dan dipublikasikan—Anthropic cepat memperoleh reputasi dalam komunitas riset AI untuk metodologi disiplin yang digerakkan oleh keselamatan dan terintegrasi erat dengan pengembangan model Claude yang lebih kapabel.
Lintasan Anthropic dibentuk sejak awal oleh pendanaan yang luar biasa besar untuk perusahaan riset muda.
Laporan publik menggambarkan fase seed awal pada 2020–2021, diikuti pembiayaan Seri A substansial pada 2021 sekitar $100M+, yang memberi tim pendiri ruang untuk merekrut peneliti inti dan memulai pelatihan model serius.
Pada 2022, Anthropic mengumumkan putaran Seri B yang jauh lebih besar, dilaporkan sekitar $580M. Putaran itu, didukung oleh investor teknologi dan modal terkait kripto, menempatkan perusahaan untuk bersaing di garis depan riset AI berskala besar, di mana biaya compute dan data sangat tinggi.
Mulai 2023, pendanaan bergeser ke kemitraan strategis dengan penyedia cloud besar. Pengumuman publik menyoroti kerangka investasi multi‑miliar dolar dengan Google dan Amazon, yang disusun dari investasi ekuitas dan komitmen cloud serta perangkat keras yang dalam. Kemitraan ini menggabungkan modal dengan akses ke infrastruktur GPU dan TPU skala besar.
Masuknya modal ini memungkinkan Anthropic untuk:
Perusahaan bergerak dari kelompok pendiri kecil—sebagian besar mantan peneliti dan insinyur OpenAI—menuju organisasi yang tumbuh mencakup banyak disiplin. Saat jumlah karyawan membesar menjadi ratusan (menurut pelaporan publik), peran baru muncul di luar riset ML murni.
Pendanaan memungkinkan Anthropic merekrut:
Campuran ini menandakan bahwa Anthropic memandang keselamatan AI bukan hanya tema riset, tetapi fungsi organisasi yang memerlukan insinyur, peneliti, pengacara, ahli kebijakan, dan profesional komunikasi bekerja bersama.
Seiring pendanaan tumbuh, Anthropic memperoleh kapasitas untuk mengejar riset keselamatan jangka panjang sekaligus produk jangka pendek. Awalnya, hampir semua sumber daya diarahkan ke riset dasar dan pelatihan model dasar. Dengan putaran selanjutnya dan kemitraan cloud strategis, perusahaan dapat:
Hasilnya adalah pergeseran dari tim pendiri kecil yang berat riset menjadi organisasi yang lebih besar dan terstruktur yang dapat mengiterasi Claude sebagai produk komersial sambil tetap berinvestasi besar dalam riset keselamatan dan praktik tata kelola internal.
Anthropic adalah perusahaan riset dan produk AI yang berfokus membangun model bahasa skala besar, paling dikenal lewat keluarga model Claude. Perusahaan ini beroperasi di persimpangan:
Sejak didirikan, Anthropic menempatkan keselamatan dan penyelarasan sebagai masalah riset inti, bukan tambahan opsional; orientasi ini membentuk pekerjaan teknis, produk, dan praktik tata kelola mereka.
Anthropic didirikan pada 2021 oleh Dario dan Daniela Amodei bersama rekan-rekan dari laboratorium seperti OpenAI, Google Brain, dan DeepMind. Tim pendiri memiliki pengalaman langsung dalam melatih dan menerapkan beberapa model bahasa besar awal, sehingga melihat potensi sekaligus risikonya.
Mereka mendirikan Anthropic karena khawatir bahwa:
Anthropic dirancang sebagai organisasi di mana keselamatan dan manfaat jangka panjang menjadi kendala desain utama, bukan pemikiran belakangan.
Anthropic merangkum tujuan perilaku AI dengan tiga sasaran:
Sasaran ini diperlakukan sebagai tujuan rekayasa: mereka membentuk data pelatihan, metrik evaluasi, kebijakan keselamatan, dan keputusan penerapan untuk model seperti Claude.
Constitutional AI adalah metode Anthropic untuk mengarahkan perilaku model dengan menggunakan serangkaian prinsip tertulis alih-alih hanya bergantung pada penilaian manusia.
Dalam praktiknya, Anthropic:
Pendekatan ini bertujuan untuk:
Agenda teknis awal Anthropic menggabungkan pekerjaan kemampuan dan keselamatan sejak awal. Arah utama meliputi:
Anthropic telah mengumpulkan pendanaan besar dan menjalin kemitraan strategis untuk mendukung riset pada skala perbatasan:
Claude telah berkembang melalui beberapa generasi utama:
Anthropic berbeda dari banyak laboratorium perbatasan lainnya dalam bagaimana keselamatan dan tata kelola ditempatkan di pusat organisasi:
Claude digunakan di berbagai organisasi dan produk, biasanya sebagai lapisan penalaran umum alih-alih sekadar antarmuka chat. Pola penggunaan umum meliputi:
Sejarah Anthropic menggambarkan beberapa pelajaran luas tentang AI perbatasan:
Benang merahnya: penelitian ini terintegrasi erat dengan pengembangan Claude, bukan terpisah dari pekerjaan produk.
Modal ini terutama membiayai compute untuk melatih model Claude, alat dan evaluasi untuk riset keselamatan, serta perluasan tim multidisipliner di riset, engineering, dan kebijakan.
Setiap langkah kemampuan dipadukan dengan pelatihan keselamatan, evaluasi, dan perilaku penolakan yang diperbarui.
Namun Anthropic juga bersaing pada garis depan kapabilitas, sehingga identitasnya dibentuk oleh upaya menjaga kemajuan dan keselamatan tetap terikat erat.
Penerapan ini sering memanfaatkan konteks panjang Claude, penggunaan alat, dan landasan pengaman untuk cocok dengan alur kerja dan kepatuhan yang ada.
Memahami lintasan Anthropic membantu menjelaskan perdebatan saat ini tentang cara menyeimbangkan kemajuan AI yang cepat dengan keselamatan jangka panjang dan dampak sosial.