
Tantangan dan Solusi dalam Penggunaan AI Generatif
Di tengah antusiasme yang tinggi terhadap adopsi kecerdasan buatan (AI) generatif, industri kini menghadapi tantangan baru yang lebih sistemik. Teknologi agentic AI, yang mampu mengakses berbagai fungsi bisnis secara otonom, mulai memicu kekhawatiran mendalam terkait potensi kebocoran data sensitif perusahaan ke model bahasa besar (LLM).
Masalah utama muncul ketika perusahaan mencoba menghubungkan sistem internal mereka dengan LLM eksternal. Tanpa proteksi yang memadai, data korporasi yang telah dijaga ketat selama bertahun-tahun bisa saja mengalir bebas ke ekosistem model publik, yang dapat merusak kerahasiaan informasi strategis.
Vice President and CTO Solutions Salesforce ASEAN, Gavin Barfield, menjelaskan bahwa keamanan bukan hanya sekadar soal konektivitas teknis, tetapi juga risiko eksistensial bagi data perusahaan. Perusahaan tidak ingin membuka celah besar yang berisiko membuat miliaran dolar investasi perlindungan data menguap begitu saja akibat interaksi yang tidak terkendali dengan AI.
Risiko dan Tantangan Utama
Selain kebocoran data, tantangan besar lainnya adalah pengendalian risiko halusinasi AI dan konten beracun (toxicity). Dalam konteks penggunaan pribadi, respons AI yang keliru mungkin dianggap sepele. Namun, jika kesalahan serupa terjadi di sektor krusial seperti telekomunikasi atau layanan kesehatan, dampaknya bisa berujung pada malapraktik atau kerugian finansial yang masif.
Gavin menjelaskan bahwa manajemen peran (roles) dan izin akses (permissions) menjadi krusial. Masalah sering timbul ketika agen AI diberikan akses tanpa batas. Seharusnya, agen AI wajib mewarisi izin akses terbatas sesuai profil pengguna aslinya guna mencegah penyalahgunaan informasi atau kebocoran data lintas departemen.
Solusi dari Salesforce: Einstein Trust Layer
Untuk menjawab kerumitan ini, Salesforce memperkenalkan Einstein Trust Layer sebagai arsitektur pengaman perantara. Lapisan ini dirancang untuk memungkinkan penggunaan AI generatif dengan fitur seperti zero data retention (tanpa penyimpanan data), penyamaran data (data masking), serta deteksi konten berbahaya. Langkah ini krusial untuk memastikan data pelanggan tetap privat saat bersentuhan dengan LLM.
“Karena itu, trust layer yang merupakan hal pertama yang kami bangun sebelum mengembangkan apa pun yang bersifat agentic dibuat untuk menciptakan koneksi yang aman dan terkelola dengan baik antara LLM, lingkungan eksternal, dan data perusahaan yang tepercaya,” kata Gavin dalam Media Briefing Agentforce World Tour Jakarta 2026 di Jakarta pada Kamis (23/4/2026).
Kedaulatan Data dan Kepatuhan Regulasi
Di sisi lain, isu kedaulatan data dan kepatuhan regulasi masih menjadi ganjalan bagi banyak perusahaan besar di Indonesia untuk mengadopsi AI secara penuh. Ketidakpastian lokasi penyimpanan data sering kali bertabrakan dengan aturan industri yang ketat mengenai keamanan siber nasional.
President Director Salesforce Indonesia, Andreas Diantoro, mengungkapkan bahwa kesiapan keamanan harus diperkuat melalui investasi infrastruktur fisik di dalam negeri. Kehadiran pusat data lokal melalui Hyperforce Indonesia diklaim telah menjawab keraguan regulasi tersebut, yang kini mulai diadopsi oleh korporasi besar seperti Indosat Ooredoo Hutchison hingga Erajaya.
Salesforce juga menjalin kewajiban kontraktual dengan mitra teknologi seperti OpenAI dan Google Gemini untuk menjamin data pelanggan tidak digunakan sebagai bahan pelatihan model AI. Dengan pendekatan ini, industri diharapkan tidak terjebak dalam dilema antara kemajuan teknologi dan perlindungan aset digital yang kian rentan.