Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 30+ model AI, dengan 0% biaya tambahan
Kemarin muncul sebuah laporan di The New Yorker yang tidak bisa saya berhenti pikirkan. Pada dasarnya, penyelidik dari sana mewawancarai lebih dari 100 orang yang terlibat di OpenAI dan berhasil mengakses dokumen internal yang belum pernah dipublikasikan sebelumnya. Apa yang keluar dari situ? Sebuah kisah yang jauh lebih rumit daripada drama tahun 2023 itu.
Semua dimulai dengan sebuah dokumen sepanjang 70 halaman yang disusun oleh Ilya Sutskever, kepala ilmuwan OpenAI, pada tahun 2023. Dia mengumpulkan pesan dari Slack, komunikasi dengan HR, notulen rapat internal... semuanya untuk menjawab satu pertanyaan: Sam Altman, orang yang mungkin mengendalikan teknologi paling berbahaya dalam sejarah, dapat dipercaya? Kesimpulannya di halaman pertama? "Sam menunjukkan pola perilaku yang konsisten dalam berbohong."
Yang menarik perhatian saya adalah sebuah contoh yang sangat spesifik. Pada Desember 2022, selama rapat dewan, Altman memastikan bahwa beberapa fitur GPT-4 sudah melalui tinjauan keamanan. Ketika diminta untuk melihat dokumen-dokumen tersebut, mereka menemukan bahwa dua fitur paling kontroversial belum pernah melewati panel keamanan. Begitu saja.
Tapi ada lagi. Dario Amodei, yang kemudian mendirikan Anthropic, meninggalkan lebih dari 200 halaman catatan pribadi saat dia di OpenAI. Dia mencatat bagaimana perusahaan mundur langkah demi langkah di bawah tekanan komersial. Satu hal yang membuatnya sangat khawatir: ketika Microsoft berinvestasi pada 2019, ada klausul yang menyatakan bahwa jika pesaing lain menemukan jalan yang lebih aman menuju AGI, OpenAI harus berhenti bersaing dan membantu. Tapi Microsoft mendapatkan hak veto atas hal itu. Pada dasarnya, jaminan keamanan itu berubah menjadi kertas kosong.
Ada satu detail yang cukup menakutkan. Pada pertengahan 2023, Altman secara publik mengumumkan bahwa OpenAI akan mengalokasikan 20% dari kapasitas komputasinya untuk sebuah "tim superpenyesuaian" — potensi lebih dari 1 miliar dolar. Tapi empat orang yang pernah bekerja di sana mengatakan bahwa kekuatan yang benar-benar dialokasikan hanya sekitar 1% sampai 2%, dengan perangkat keras yang lebih tua. Tim tersebut kemudian dibubarkan. Ketika wartawan meminta wawancara dengan orang-orang yang bertanggung jawab atas riset keamanan eksistensial, jawaban dari tim humas OpenAI adalah: "Ini bukan sesuatu yang benar-benar ada."
Yang terbaru: Sarah Friar, CFO OpenAI, memiliki perbedaan pendapat serius dengan Altman tentang IPO. Dia merasa perusahaan belum siap, mengingat risiko keuangan dari janji Altman untuk menghabiskan 600 miliar dolar untuk kapasitas komputasi. Tapi bagian anehnya — dia tidak lagi melaporkan langsung ke Altman. Sekarang dia melapor ke Fidji Simo, yang mengambil cuti medis minggu lalu. Sebuah perusahaan yang sedang dalam proses IPO, CEO dan CFO berbeda pandangan secara mendasar, CFO tidak melapor ke CEO, dan atasan CFO sedang cuti. Bahkan eksekutif Microsoft pun tidak tahan lagi, mengatakan bahwa Altman "memutarbalikkan fakta, memutuskan janji."
Seorang mantan anggota dewan menggambarkan Altman dengan sangat menarik: dia memiliki keinginan yang sangat kuat untuk menyenangkan setiap orang dalam setiap interaksi tatap muka, tetapi sekaligus menunjukkan ketidakpedulian yang hampir sosiopat terhadap konsekuensi dari menipu orang lain. Ini kombinasi yang langka — dan sempurna untuk seorang penjual.
Inilah masalahnya: jika Altman adalah CEO dari perusahaan teknologi biasa, itu hanya rumor perusahaan yang bagus. Tapi OpenAI sedang mengembangkan teknologi yang bisa merestrukturisasi ekonomi global, digunakan untuk menciptakan senjata bio-kimia, atau meluncurkan serangan siber. Mantan kepala ilmuwan dan mantan petugas keamanan menganggap dia tidak dapat dipercaya. Mitra-mitra membandingkannya dengan SBF. Dan meskipun begitu, dia ingin membawa perusahaan ini ke IPO dengan valuasi di atas 850 miliar.
Gary Marcus, profesor AI di New York, mengajukan pertanyaan yang sangat langsung setelah membaca semuanya: apakah Anda benar-benar merasa aman membiarkan Altman memutuskan sendiri apakah harus merilis model yang bisa mengubah nasib umat manusia?
Jawaban dari OpenAI pada dasarnya adalah mempertanyakan motif sumber-sumber tersebut, tanpa menolak secara spesifik. Altman tidak menanggapi tuduhan langsung tersebut.
Ini adalah kisah tentang bagaimana sekelompok idealis yang peduli dengan risiko AI membentuk sebuah organisasi nirlaba dengan misi yang jelas. Setelah teknologi maju, modal besar datang, modal menuntut pengembalian, dan misi mulai terkikis. Tim keamanan dibubarkan, orang-orang yang mempertanyakan diusir, struktur nirlaba berubah menjadi entitas berorientasi laba, dan dewan yang bisa menutup perusahaan kini penuh dengan sekutu CEO. Lebih dari seratus saksi menggunakan deskripsi yang sama: "tidak terbatas oleh kebenaran."