Riset Ungkap 77% Karyawan Bocorkan Rahasia Perusahaan ke ChatGPT

Aisyah Khoirunnisa' . October 13, 2025
Kebocoran data ChatGPT
Foto: TechRepublic


Teknologi.id – Adopsi Kecerdasan Buatan (Artificial Intelligence/AI) di tempat kerja memang membawa efisiensi besar, namun di balik itu tersimpan ancaman keamanan yang sangat serius.

Sebuah laporan terbaru bertajuk Enterprise AI and SaaS Data Security Report 2025 dari perusahaan keamanan siber LayerX mengungkap fakta mengejutkan: mayoritas karyawan tanpa sadar membocorkan rahasia perusahaan melalui chatbot ChatGPT.

Baca juga: ChatGPT Makin Gila! Sekarang Bisa Akses Canva, Spotify, dan Booking.com Langsung

ChatGPT Jadi Celah Baru Kebocoran Data Perusahaan

Dalam riset tersebut, LayerX menganalisis pola penggunaan AI generatif di lingkungan korporat dan menemukan tren yang mengkhawatirkan.
Sekitar 45% karyawan diketahui sudah menggunakan alat AI seperti ChatGPT untuk membantu pekerjaan mereka. Namun yang mengejutkan, 77% di antaranya pernah menyalin data perusahaan ke chatbot.

Lebih parah lagi, 22% dari data yang dibagikan termasuk kategori “sensitif”, mencakup:

  • PII (Personally Identifiable Information): Data pribadi seperti KTP, alamat, dan identitas karyawan.

  • PCI (Payment Card Information): Data kartu pembayaran dan informasi keuangan.

  • Kode internal perusahaan: Misalnya kasus Samsung tahun 2023, di mana seorang karyawan mengunggah kode sumber internal ke ChatGPT hingga membuat perusahaan melarang penggunaan chatbot tersebut secara internal.

Fenomena Shadow IT: Ancaman Diam-Diam di Balik Akun Pribadi

Salah satu temuan paling berbahaya dari laporan ini adalah meningkatnya fenomena Shadow IT — penggunaan aplikasi tanpa izin atau pengawasan tim IT perusahaan.
LayerX menemukan bahwa 82% aktivitas input data sensitif ke AI dilakukan melalui akun pribadi, bukan akun korporat.

Artinya, perusahaan tidak memiliki kontrol dan visibilitas terhadap:

  • Jenis data yang diunggah.

  • Ke mana data itu pergi.

  • Bagaimana data digunakan oleh sistem AI seperti ChatGPT.

CEO LayerX, Or Eshed, memperingatkan bahwa praktik ini membuka celah besar terhadap kebocoran rahasia perusahaan dan penyalahgunaan data oleh pihak tidak berwenang.

Solusi: Gunakan AI Korporat dan Edukasi Karyawan

Riset LayerX menjadi peringatan keras bagi seluruh perusahaan di dunia.
Meski AI seperti ChatGPT bisa meningkatkan produktivitas, penggunaan tanpa pengawasan justru menimbulkan risiko keamanan tinggi.

Untuk menghindari kebocoran data sensitif, perusahaan disarankan untuk:

  1. Menerapkan kebijakan penggunaan AI yang tegas dan mudah dipahami karyawan.

  2. Menyediakan platform AI internal (corporate AI) yang aman dan terintegrasi dengan sistem keamanan perusahaan.

  3. Mengadakan pelatihan literasi keamanan data, agar karyawan memahami batasan penggunaan alat seperti ChatGPT.

Baca juga: Gebrakan Baru dari Open AI! Bisa Belanja di ChatGPT Pakai Fitur Instant Checkout

Kesimpulan

Manfaat efisiensi AI di tempat kerja tidak bisa dipisahkan dari tanggung jawab keamanan data.
Tanpa regulasi yang jelas, karyawan bisa secara tidak sengaja membocorkan rahasia perusahaan hanya dengan menyalin teks ke chatbot publik seperti ChatGPT.

Perusahaan harus segera bertindak — bukan untuk melarang AI, tetapi untuk mengendalikan penggunaannya secara aman dan bertanggung jawab.

Baca Berita dan Artikel yang lain di Google News.

(ak)

author0
teknologi id bookmark icon

Tinggalkan Komentar

0 Komentar