layananhukum

Apakah AI Dapat Menjadi Ancaman Bagi Rahasia Dagang?

 

Pengantar

Akselerasi adopsi teknologi Kecerdasan Buatan (Artificial Intelligence atau AI), khususnya dalam bentuk Generative AI dan Machine Learning, telah menjadi pilar fundamental dalam transformasi digital pada berbagai sektor industri. AI tidak lagi dipandang sebagai inovasi futuristik, melainkan sebagai instrumen integral yang mendorong efisiensi, mengoptimalkan proses pengambilan keputusan, dan membuka cakrawala baru dalam pengembangan produk dan jasa.

Namun, di balik potensinya yang transformatif, kehadiran AI turut serta melahirkan serangkaian risiko yuridis baru yang belum pernah terpetakan sebelumnya, terutama bagi rezim perlindungan Hak Kekayaan Intelektual (HKI). Di antara berbagai cabang HKI, rahasia dagang menjadi salah satu yang paling rentan terdampak oleh disrupsi teknologi ini.  

Artikel ini berargumentasi bahwa kerangka hukum rahasia dagang di Indonesia, yang secara primer termaktub dalam Undang-Undang Republik Indonesia Nomor 30 Tahun 2000 tentang Rahasia Dagang, yang selanjutnya disebut dengan “UU Rahasia Dagang”, menghadapi tantangan fundamental akibat karakteristik inheren yang dimiliki oleh sistem AI.

Sifat AI yang otonom, kemampuannya untuk memproses dan menganalisis data dalam skala masif, serta model operasinya yang seringkali bersifat “kotak hitam” (black box), secara kolektif menguji elastisitas interpretasi dan efektivitas penegakan hukum yang ada.

Ancaman terhadap rahasia dagang secara fundamental telah berevolusi. Model ancaman tradisional yang berpusat pada “ancaman dari dalam” (insider threat), seperti seorang karyawan yang dengan niat jahat mencuri dokumen perusahaan sebelum pindah ke pesaing, sebagaimana tercermin dalam berbagai kasus spionase ekonomi, kini bergeser. Ancaman baru muncul dari tindakan karyawan yang beritikad baik namun secara tidak sadar membocorkan informasi rahasia melalui penggunaan alat produktivitas berbasis AI.

Tindakan memasukkan data laporan keuangan, kode sumber program, atau strategi pemasaran ke dalam platform Generative AI publik untuk tujuan efisiensi, secara efektif mentransfer informasi proprietary tersebut ke luar perimeter keamanan perusahaan, di mana data tersebut dapat diserap ke dalam korpus data pelatihan vendor AI.

Dengan demikian, unsur kesalahan (mens rea atau sikap batin) bergeser dari “niat untuk mencuri” (dolus malus) menjadi “kelalaian dalam mengelola informasi” (culpa). Pergeseran paradigma ini menciptakan kategori risiko baru yang tidak secara efektif diantisipasi oleh kerangka hukum tradisional yang berfokus pada perbuatan yang disengaja.

Untuk mengupas permasalahan ini secara komprehensif, pandangan hukum dalam artikel ini akan ditopang oleh tiga pilar utama. Pertama, dekonstruksi kritis terhadap kerangka hukum positif Indonesia, dengan fokus pada UU Rahasia Dagang serta relevansinya dengan peraturan perundang-undangan lain yang terkait. Kedua, identifikasi dan analisis mendalam terhadap vektor-vektor ancaman spesifik yang ditimbulkan oleh AI terhadap kerahasiaan informasi komersial. Ketiga, studi hukum komparatif terhadap yurisdiksi negara lain, mencakup Amerika Serikat, Australia, Singapura, Jepang, dan Tiongkok, untuk memetakan berbagai model regulasi alternatif yang dapat menjadi rujukan bagi pembentukan rekomendasi kebijakan hukum di Indonesia.

Kerangka Hukum Rahasia Dagang di Indonesia

Perlindungan hukum terhadap suatu informasi sebagai rahasia dagang di Indonesia tidak diberikan secara otomatis. UU Rahasia Dagang menetapkan syarat-syarat kumulatif yang harus dipenuhi. Pasal 3 ayat (1) UU Rahasia Dagang menyatakan bahwa:

“Rahasia Dagang mendapat perlindungan apabila informasi tersebut bersifat rahasia, mempunyai nilai ekonomi, dan dijaga kerahasiaannya melalui upaya sebagaimana mestinya”.

 Terhadap ketiga unsur ini dalam konteks era digital menjadi krusial.  

Pertama, unsur “bersifat rahasia”, sebagaimana diatur dalam Pasal 3 ayat (2) UU Rahasia Dagang, mensyaratkan bahwa informasi tersebut hanya diketahui oleh pihak tertentu atau tidak diketahui secara umum oleh masyarakat. Konsep ini menghadapi tantangan signifikan di hadapan AI yang memiliki kemampuan untuk mengagregasi, menganalisis, dan mensintesis informasi publik yang terfragmentasi dari berbagai sumber. Sebuah sistem AI berpotensi mampu merekonstruksi suatu informasi yang dianggap rahasia dengan menghubungkan titik-titik data yang tersebar di domain publik, sehingga mengaburkan batas antara informasi yang benar-benar rahasia dan informasi yang dapat disimpulkan.  

Kedua, unsur “memiliki nilai ekonomi”, sebagaimana dijelaskan dalam Pasal 3 ayat (3) UU Rahasia Dagang, terpenuhi apabila sifat kerahasiaan informasi tersebut dapat digunakan untuk menjalankan kegiatan usaha yang bersifat komersial atau meningkatkan keuntungan. Dalam konteks AI, unsur ini secara inheren terpenuhi. Data pelatihan (training data) yang telah dikurasi, bobot model (model weights) yang dihasilkan dari proses pelatihan yang mahal, serta algoritma proprietary merupakan aset inti yang menjadi sumber keunggulan kompetitif bagi perusahaan teknologi, sehingga tidak diragukan lagi memiliki nilai ekonomi yang substansial.  

Ketiga, unsur “dijaga kerahasiaannya melalui upaya sebagaimana mestinya”, yang diatur dalam Pasal 3 ayat (4) UU Rahasia Dagang, merupakan titik paling kritis dalam analisis ini. Penjelasan Pasal 3 ayat (1) UU Rahasia Dagang menginterpretasikan frasa ini sebagai semua langkah yang memuat ukuran kewajaran, kelayakan, dan kepatutan yang harus dilakukan. Di era pra-digital, upaya ini seringkali diterjemahkan sebagai implementasi perjanjian kerahasiaan (Non-Disclosure Agreement - NDA) dengan karyawan dan mitra bisnis, serta pembatasan akses fisik ke lokasi atau dokumen sensitif. Namun, standar “upaya yang layak dan patut” tersebut telah berevolusi secara drastis. Di era AI, upaya perlindungan yang hanya mengandalkan instrumen tradisional tidak lagi dapat dianggap memadai. Standar modern harus mencakup, namun tidak terbatas pada:  

1.        Penyusunan dan implementasi kebijakan internal perusahaan (Standard Operating Procedure) yang secara eksplisit melarang atau mengatur secara ketat penggunaan platform AI generatif publik untuk pekerjaan yang melibatkan informasi sensitif Perusahaan;

2.       Implementasi solusi teknis seperti perangkat lunak Data Loss Prevention (DLP) yang mampu memonitor dan memblokir transfer data rahasia ke layanan AI eksternal yang tidak sah;

3.      Penyelenggaraan pelatihan dan sosialisasi secara berkala kepada seluruh karyawan mengenai risiko keamanan siber yang spesifik terkait AI, termasuk fenomena “Shadow AI”, yaitu penggunaan aplikasi AI oleh karyawan tanpa persetujuan dan pengawasan resmi dari departemen teknologi informasi perusahaan.  

Ruang Lingkup Pelanggaran dan Tantangan Atribusi

UU Rahasia Dagang mengidentifikasi dua bentuk utama pelanggaran. Pasal 13 UU Rahasia Dagang berfokus pada pelanggaran yang timbul dari hubungan kontraktual atau fidusia, yang menyatakan bahwa:

“Pelanggaran Rahasia Dagang juga terjadi apabila seseorang dengan sengaja mengungkapkan Rahasia Dagang, mengingkari kesepakatan atau mengingkari kewajiban tertulis atau tidak tertulis untuk menjaga Rahasia Dagang yang bersangkutan”.

Di sisi lain, Pasal 14 UU Rahasia Dagang mengatur tentang perolehan informasi secara tidak sah, yang menyatakan bahwa:

“Seseorang dianggap melanggar Rahasia Dagang pihak lain apabila ia memperoleh atau menguasai Rahasia Dagang tersebut dengan cara yang bertentangan dengan peraturan perundang-undangan yang berlaku”.  

Kedua pasal ini menunjukkan keterbatasan fundamental dari kerangka hukum yang ada, yakni sifatnya yang antroposentris, dirancang untuk mengatur tindakan yang dilakukan oleh “orang” (person) dengan “niat” (intent). Hal ini menciptakan kekosongan hukum (legal vacuum) ketika agen penyebab kerugian adalah sistem AI non-manusia yang beroperasi berdasarkan probabilitas dan korelasi data, bukan berdasarkan niat sadar.

Pasal 17 UU Rahasia Dagang, yang merupakan norma sanksi pidana, secara eksplisit menggunakan frasa Barangsiapa dengan sengaja dan tanpa hak...”, yang mensyaratkan adanya unsur kesengajaan (dolus/opzet). Dalam kasus kebocoran data melalui platform AI, pembuktian unsur “sengaja” pada karyawan yang berinteraksi dengan AI menjadi sangat sulit, karena tindakan mereka seringkali didasari oleh kelalaian atau ketidaktahuan, bukan niat jahat.  

Lebih lanjut, tantangan atribusi menjadi penghalang utama. Sistem AI, sebagai subjek non-hukum, tidak dapat dimintai pertanggungjawaban pidana maupun perdata. Akibatnya, pertanggungjawaban harus dialihkan kepada subjek hukum yang terkait, yaitu pengembang, penyedia layanan, atau pengguna AI.

Hal ini menimbulkan kerumitan dalam menentukan siapa yang harus menanggung akibat hukum: apakah karyawan yang memasukkan data, perusahaan yang dianggap lalai dalam melakukan pengawasan, atau vendor AI yang kebijakannya memungkinkan data input diserap untuk tujuan pelatihan model. Kerangka hukum pidana yang ada menjadi tumpul, sehingga fokus penegakan hukum harus bergeser dari penghukuman atas niat jahat (malicious intent) ke arah penetapan pertanggungjawaban atas kelalaian (negligence) dan kegagalan dalam manajemen risiko, yang lebih sesuai untuk diselesaikan melalui mekanisme hukum perdata atau sanksi administratif.  

Irisan dengan Rezim Hukum Lainnya

Ancaman AI terhadap rahasia dagang tidak berdiri dalam ruang hampa hukum, melainkan beririsan dengan beberapa rezim hukum lainnya yang relevan.

Pertama, Undang-Undang Republik Indonesia Nomor 11 Tahun 2008 tentang Informasi dan Transaksi Elektronik sebagaimana telah diubah dengan Undang-Undang Republik Indonesia Nomor 19 Tahun 2016, yang selanjutnya disebut dengan “UU ITE”. Pasal 30 UU ITE, yang mengatur tentang akses ilegal (illegal access), dan Pasal 32 UU ITE, yang mengatur tentang gangguan terhadap data (data interference), memiliki relevansi langsung. Tindakan vendor AI yang secara otomatis “menyerap” atau “menggunakan” data input dari pengguna untuk melatih modelnya, tanpa persetujuan eksplisit untuk tujuan tersebut, dapat diinterpretasikan sebagai bentuk akses atau interferensi terhadap data tanpa hak, terutama jika syarat dan ketentuan layanan tidak transparan mengenai praktik ini.  

Kedua, Undang-Undang Republik Indonesia Nomor 27 Tahun 2022 tentang Pelindungan Data Pribadi, yang selanjutnya disebut dengan “UU PDP”. Keterkaitan ini muncul ketika informasi yang menjadi rahasia dagang juga mengandung data pribadi, seperti daftar pelanggan yang memuat nama, alamat, dan riwayat transaksi. Kebocoran rahasia dagang semacam ini ke platform AI secara simultan dapat merupakan pelanggaran terhadap UU PDP.

Secara spesifik, hal ini dapat melanggar kewajiban Pengendali Data untuk memastikan keamanan pemrosesan data dan mencegah akses yang tidak sah, sebagaimana diamanatkan oleh prinsip-prinsip pelindungan data pribadi. Dengan demikian, perusahaan yang mengalami kebocoran rahasia dagang yang mengandung data pribadi dapat menghadapi risiko hukum ganda, baik dari gugatan berdasarkan UU Rahasia Dagang maupun sanksi administratif dan pidana berdasarkan UU PDP.  

Identifikasi Vektor Ancaman AI terhadap Rahasia Dagang

Ancaman yang ditimbulkan oleh AI terhadap rahasia dagang dapat diidentifikasi melalui beberapa vektor spesifik, yang masing-masing memiliki modus operandi dan dampak yuridis yang berbeda.

Kebocoran Data Melalui Interaksi Pengguna (User Interaction Data Leakage)

Ini merupakan vektor ancaman yang paling langsung dan umum terjadi. Modus operandinya adalah penggunaan platform AI generatif yang tersedia untuk publik oleh karyawan untuk menyelesaikan tugas sehari-hari. Sebagai contoh konkret, seorang insinyur perangkat lunak yang mengalami kesulitan dapat memasukkan potongan kode sumber (source code) yang bersifat proprietary ke dalam ChatGPT untuk tujuan debugging. Demikian pula, seorang manajer pemasaran dapat mengunggah dokumen strategi bisnis internal yang rahasia untuk meminta AI membuatkan ringkasan eksekutif.  

Dampak yuridis dari tindakan ini sangat fatal. Ketika data tersebut dimasukkan, ia keluar dari perimeter keamanan siber perusahaan dan berpotensi menjadi bagian dari korpus data pelatihan masif yang dimiliki oleh vendor AI. Informasi yang sebelumnya rahasia tersebut dapat direproduksi, baik secara utuh maupun dalam bentuk derivatif, sebagai jawaban atas pertanyaan dari pengguna lain di masa depan. Tindakan ini secara efektif menghancurkan unsur “kerahasiaan” yang menjadi syarat mutlak perlindungan rahasia dagang. Begitu suatu informasi menjadi pengetahuan umum atau dapat diakses publik, ia kehilangan statusnya sebagai rahasia dagang dan perlindungan hukum berdasarkan UU Rahasia Dagang secara otomatis gugur.  

Risiko Rantai Pasokan AI (AI Supply Chain Risks)

Vektor ancaman ini muncul ketika perusahaan mengintegrasikan layanan AI dari pihak ketiga ke dalam alur kerja internal mereka. Contohnya adalah penggunaan platform AI untuk analisis data pelanggan, manajemen inventaris, atau deteksi penipuan. Dalam skenario ini, perusahaan mempercayakan data operasionalnya, yang seringkali mencakup rahasia dagang, kepada vendor AI.

Apabila vendor tersebut mengalami insiden peretasan siber atau memiliki kerentanan keamanan, maka seluruh data rahasia dagang dari perusahaan klien yang tersimpan atau diproses dalam sistemnya dapat terekspos.

Dampak yuridisnya menyoroti pentingnya pelaksanaan uji tuntas (due diligence) yang ketat terhadap keamanan siber dan praktik tata kelola data vendor AI sebelum menjalin kerja sama. Selain itu, klausul kontraktual dalam perjanjian layanan (Service Level Agreement) harus dirancang secara cermat untuk mengatur alokasi tanggung jawab dan kewajiban ganti rugi jika terjadi kebocoran data. Dalam konteks ini, AI dalam rantai pasokan berfungsi sebagai titik tunggal kegagalan (single point of failure) yang terkonsentrasi, di mana satu insiden keamanan pada vendor dapat berdampak katastropik bagi banyak perusahaan kliennya.

Rekayasa Ulang dan Inferensi Berbasis AI (AI-Powered Reverse Engineering and Inference)

Ancaman ini bersifat lebih canggih dan sulit dideteksi. Sistem AI modern mampu menganalisis sejumlah besar data yang tersedia untuk umum (seperti dokumen paten, publikasi ilmiah, deskripsi produk, dan data pasar) untuk kemudian menyimpulkan (to infer) atau merekonstruksi rahasia dagang yang mendasarinya.

Sebagai contoh, AI dapat menganalisis ratusan paten terkait formula kimia untuk menyimpulkan kombinasi optimal yang belum dipatenkan namun digunakan sebagai rahasia dagang oleh sebuah perusahaan.

Ancaman ini secara langsung menantang interpretasi Pasal 15 huruf b UU Rahasia Dagang, yang mengecualikan tindakan rekayasa ulang (reverse engineering) dari kategori pelanggaran, dengan syarat tindakan tersebut “dilakukan semata-mata untuk kepentingan pengembangan lebih lanjut produk yang bersangkutan”.

AI dapat melakukan rekayasa ulang pada skala, kecepatan, dan kompleksitas yang jauh melampaui kemampuan manusia. Hal ini berpotensi mengaburkan batas antara rekayasa ulang yang sah untuk tujuan inovasi dan spionase industri yang dilakukan secara tidak sah. Lebih jauh lagi, AI tidak hanya mengancam data yang secara eksplisit rahasia, tetapi juga “data buangan” (data exhaust), yaitu metadata, pola penggunaan, dan data insidental lainnya.

Dengan menganalisis pola pertanyaan dari para insinyur sebuah perusahaan ke platform AI, misalnya, sistem AI dapat menyimpulkan arah riset dan pengembangan perusahaan tersebut, yang mana informasi itu sendiri merupakan rahasia dagang strategis. Kerangka hukum saat ini belum dirancang untuk melindungi dari bentuk spionase industri yang bersifat inferensial semacam ini.  

Perspektif Hukum Komparatif – Regulasi dan Praktik di Berbagai Yurisdiksi

Untuk memahami bagaimana tantangan ini ditangani secara global, analisis komparatif terhadap pendekatan hukum di yurisdiksi lain menjadi esensial. Setiap negara menunjukkan filosofi regulasi yang berbeda, membentuk sebuah spektrum dari yang bersifat reaktif hingga proaktif.

Amerika Serikat – Pendekatan Berbasis Litigasi dan Kekuatan Federal

Amerika Serikat mengandalkan kerangka hukum yang kuat dan pendekatan yang berorientasi pada litigasi. Instrumen hukum utamanya adalah Defend Trade Secrets Act (DTSA) tahun 2016, sebuah undang-undang federal yang menciptakan landasan gugatan perdata di pengadilan federal untuk kasus penyalahgunaan rahasia dagang. DTSA memberikan definisi yang luas mengenai “rahasia dagang” dan “penyalahgunaan” (misappropriation), yang mencakup perolehan, pengungkapan, atau penggunaan informasi rahasia secara tidak patut.  

Dalam praktik yudisial, pengadilan AS telah menegaskan pandangan antroposentris dalam HKI, seperti dalam kasus Thaler v. Vidal, di mana pengadilan menolak kemungkinan AI menjadi “penemu” (inventor) dalam sebuah paten. Namun, menariknya, DTSA tidak mensyaratkan adanya pencipta manusia; ia hanya mensyaratkan adanya “pemilik” (owner), yang secara teoretis membuka kemungkinan perlindungan bagi inovasi yang dihasilkan oleh AI.

Litigasi menjadi arena utama dalam sengketa HKI terkait AI, seperti yang terlihat dalam gugatan antara perusahaan AI, misalnya xAI melawan OpenAI, atas tuduhan perburuan karyawan untuk mencuri rahasia dagang. Pendekatan AS yang terpusat dan kuat di tingkat federal ini kontras dengan kondisi di Indonesia, yang hanya memiliki UU Rahasia Dagang tanpa peraturan pelaksana yang spesifik untuk menghadapi tantangan teknologi baru.

Australia – Adaptasi Kerangka Hukum yang Ada

Australia tidak memiliki legislasi khusus yang mengatur AI. Perlindungan rahasia dagang bergantung pada adaptasi kerangka hukum yang sudah ada, terutama doktrin common law mengenai pelanggaran kerahasiaan (breach of confidence) dan ketentuan dalam Privacy Act 1988. Pendekatan ini bersifat pragmatis namun menyisakan area abu-abu yang signifikan. Salah satu tantangan utama adalah Copyright Act 1968 Australia yang tidak memiliki pengecualian fair dealing yang jelas untuk tujuan pelatihan AI, sehingga menciptakan ketidakpastian hukum bagi para pengembang AI.  

Sebagai respons, regulator seperti Office of the Australian Information Commissioner (OAIC) dan berbagai badan profesi hukum telah mengeluarkan panduan (guidance) yang menekankan pentingnya uji tuntas, transparansi, dan pemenuhan kewajiban profesional dalam penggunaan AI, terutama dalam menjaga kerahasiaan informasi klien. Pendekatan Australia ini menunjukkan bagaimana prinsip-prinsip hukum yang fleksibel dapat diterapkan, meskipun tanpa memberikan kepastian hukum setingkat legislasi.  

Singapura – Regulasi Proaktif dan Berbasis Prinsip

Singapura menjadi contoh utama pendekatan regulasi yang proaktif melalui soft law. Kerangka hukum utamanya adalah Personal Data Protection Act (PDPA), yang dilengkapi dengan panduan spesifik dari Personal Data Protection Commission (PDPC) melalui Advisory Guidelines on the Use of Personal Data in AI Systems. Pendekatan ini berfokus pada akuntabilitas, transparansi, dan manajemen risiko.  

Panduan PDPC memberikan kejelasan yang sangat dibutuhkan oleh industri, misalnya dengan menguraikan kondisi di mana data pribadi dapat digunakan untuk pelatihan AI di bawah pengecualian seperti “peningkatan bisnis” (business improvement) atau “penelitian” (research), tanpa memerlukan persetujuan eksplisit, asalkan terdapat mekanisme perlindungan data yang memadai.

Inisiatif seperti peluncuran Global AI Assurance Sandbox dan panduan adopsi Privacy Enhancing Technologies (PETs) menunjukkan komitmen pemerintah Singapura untuk menciptakan ekosistem AI yang terpercaya dan inovatif. Model Singapura ini dapat menjadi rujukan yang sangat relevan bagi Indonesia untuk memberikan kepastian hukum secara cepat tanpa harus melalui proses legislasi yang panjang dan kaku.  

Jepang - Perlindungan Melalui Hukum Persaingan Usaha

Di Jepang, perlindungan utama terhadap rahasia dagang tidak berasal dari undang-undang HKI yang terpisah, melainkan terintegrasi dalam Unfair Competition Prevention Act (UCPA). UCPA secara eksplisit mendefinisikan “rahasia dagang” dan melarang berbagai tindakan persaingan tidak sehat, termasuk akuisisi, penggunaan, atau pengungkapan informasi rahasia secara tidak sah.

Undang-undang ini menyediakan sanksi perdata (perintah penghentian dan ganti rugi) dan sanksi pidana, serta telah terbukti efektif dalam penegakan hukum kasus-kasus pencurian teknologi, terutama yang melibatkan mantan karyawan. Pendekatan Jepang ini menunjukkan paralel dengan keberadaan Undang-Undang Republik Indonesia Nomor 5 Tahun 1999 tentang Larangan Praktek Monopoli dan Persaingan Usaha Tidak Sehat di Indonesia, meskipun UCPA Jepang jauh lebih eksplisit dan detail dalam mengatur perlindungan rahasia dagang.  

Tiongkok – Kontrol Negara dan Regulasi Preskriptif

Tiongkok mengadopsi pendekatan yang paling intervensionis dan dikendalikan oleh negara. Negara ini telah menerbitkan peraturan yang sangat spesifik dan preskriptif untuk mengatur generative AI dan deepfakes. Perlindungan rahasia dagang ditegakkan secara agresif melalui Anti-Unfair Competition Law (AUCL).  

Praktik yudisial di Tiongkok menunjukkan perkembangan yang progresif, di mana pengadilan telah mengakui elemen-elemen AI, seperti struktur model dan parameternya, sebagai objek rahasia dagang yang dapat dilindungi di bawah AUCL. Penegakan hukum dilakukan secara kuat, termasuk dalam kasus-kasus spionase industri yang melibatkan pencurian teknologi AI oleh perusahaan asing maupun domestik. Pendekatan Tiongkok memandang data dan teknologi AI sebagai aset strategis nasional yang harus dikontrol secara ketat, sebuah filosofi yang kontras tajam dengan pendekatan Indonesia yang cenderung lebih laissez-faire.  

Analisis komparatif ini menempatkan Indonesia pada posisi “kelambanan legislatif” (legislative inertia). Sementara yurisdiksi lain bergerak aktif, baik melalui litigasi, soft law, maupun regulasi preskriptif, Indonesia masih bergantung pada undang-undang berusia lebih dari dua dekade yang belum diadaptasi untuk era digital. Ketidakpastian hukum ini dapat menjadi disinsentif bagi inovasi dan investasi, karena perlindungan terhadap aset HKI paling krusial di era digital, yaitu data dan algoritma, masih belum terjamin secara eksplisit.  

Arah Kebijakan Hukum Rahasia Dagang Indonesia di Era AI

Berdasarkan analisis yang telah diuraikan, kapasitas kerangka hukum Indonesia saat ini dalam menghadapi ancaman AI terhadap rahasia dagang memiliki beberapa kelemahan fundamental.

Pertama, sifat antroposentris UU Rahasia Dagang dan UU ITE menyulitkan penanganan pelanggaran yang dilakukan oleh atau melalui agen non-manusia seperti AI, terutama dalam pembuktian unsur kesengajaan.

Kedua, standar “upaya sebagaimana mestinya” dalam Pasal 3 UU Rahasia Dagang bersifat ambigu dan belum diinterpretasikan secara resmi untuk mencakup risiko digital modern, meninggalkan pelaku usaha dalam ketidakpastian mengenai tingkat perlindungan yang dianggap memadai.

Ketiga, hingga saat ini, belum ada peraturan pelaksana, panduan resmi, ataupun surat edaran dari lembaga pemerintah atau yudikatif yang secara spesifik membahas persinggungan antara HKI dan AI, memperparah kekosongan hukum yang ada. Meskipun UU ITE dan UU PDP memberikan lapisan perlindungan tambahan, sifatnya parsial dan tidak secara langsung mengatasi esensi dari penyalahgunaan rahasia dagang dalam konteks AI.  

Rekomendasi Kebijakan Hukum

Untuk mengatasi kelemahan tersebut, diperlukan langkah-langkah kebijakan hukum yang terstruktur, baik untuk jangka pendek maupun jangka panjang.

1.        Jangka Pendek (Langkah Interpretatif dan Administratif)

Mengambil inspirasi dari model soft law Singapura, Pemerintah dapat menerbitkan Peraturan Pemerintah (PP) sebagai peraturan pelaksana dari UU Rahasia Dagang, atau Mahkamah Agung dapat menerbitkan Surat Edaran Mahkamah Agung (SEMA). Instrumen ini harus memberikan interpretasi modern dan otoritatif terhadap frasa “upaya sebagaimana mestinya”, dengan menetapkan bahwa upaya tersebut mencakup kewajiban bagi pelaku usaha untuk memiliki kebijakan internal yang jelas mengenai penggunaan AI, menerapkan kontrol teknis yang relevan (seperti enkripsi dan sistem DLP), serta melakukan pelatihan karyawan secara berkala. Langkah ini dapat memberikan kepastian hukum dengan cepat tanpa harus menunggu proses legislasi yang panjang;

2.       Jangka Panjang (Langkah Legislatif)

Diperlukan amandemen terhadap UU Rahasia Dagang untuk mengadaptasinya dengan realitas teknologi. Amandemen tersebut setidaknya harus mencakup dua hal. Pertama, memperluas definisi pelanggaran untuk mencakup tindakan yang didasari oleh kelalaian berat (gross negligence) dalam pengamanan informasi yang menyebabkan kebocoran rahasia dagang, sehingga tidak lagi terbatas pada tindakan yang “disengaja”. Kedua, secara eksplisit mengakui bahwa data pelatihan yang terkurasi, model AI, bobot model, dan algoritma proprietary merupakan objek informasi yang dapat dilindungi sebagai rahasia dagang, mencontoh preseden yang telah berkembang di yurisdiksi seperti Tiongkok.

Panduan Praktis bagi Pelaku Usaha

Sambil menunggu reformasi hukum, pelaku usaha tidak dapat berdiam diri. Ada langkah-langkah proaktif yang harus segera diambil untuk memitigasi risiko:

1.        Aspek Yuridis

Segera merevisi perjanjian kerja, peraturan perusahaan, dan perjanjian kerahasiaan (NDA) untuk secara eksplisit melarang atau mengatur dengan sangat ketat penggunaan platform AI generatif publik untuk memproses informasi rahasia perusahaan. Klausul tersebut harus disertai dengan sanksi yang jelas atas pelanggarannya;

2.       Aspek Teknis dan Organisasional

Mengimplementasikan kebijakan internal yang komprehensif tentang penggunaan AI yang aman dan bertanggung jawab. Perusahaan harus melakukan inventarisasi dan klasifikasi aset informasi untuk mengidentifikasi mana yang merupakan rahasia dagang, serta menerapkan teknologi untuk memonitor dan mengontrol aliran data keluar dari jaringan perusahaan.  

3.      Aspek Uji Tuntas (Due Diligence)

Melakukan peninjauan yang cermat terhadap kebijakan privasi dan persyaratan layanan dari setiap vendor AI yang digunakan. Penting untuk memahami bagaimana vendor menangani data input, apakah data tersebut digunakan untuk pelatihan model, dan bagaimana mekanisme perlindungan data yang mereka tawarkan.

Kecerdasan Buatan adalah teknologi transformatif yang menjanjikan kemajuan luar biasa di berbagai bidang. Namun, untuk dapat memaksimalkan manfaatnya seraya meminimalkan risikonya, diperlukan kerangka hukum yang adaptif, responsif, dan mampu memberikan kepastian. Tantangan yang ditimbulkan AI terhadap rezim rahasia dagang bukanlah ancaman yang harus dihindari, melainkan katalisator yang harus mendorong evolusi hukum.

Sebagaimana adagium hukum menyatakan, Lex semper dabit remedium—hukum akan selalu memberikan solusi. Adalah tugas bagi para legislator, praktisi hukum, dan pemangku kepentingan di Indonesia untuk memastikan bahwa sistem hukum nasional berevolusi untuk memberikan solusi yang efektif, demi melindungi inovasi, menjaga persaingan usaha yang sehat, dan memastikan Indonesia dapat bersaing dalam ekonomi global yang didorong oleh teknologi.

Informasi dan Konsultasi Lanjutan

Apabila Anda memiliki persoalan hukum yang ingin dikonsultasikan lebih lanjut, Anda dapat mengirimkan pertanyaan melalui tautan yang tersedia, menghubungi melalui surel di lawyerpontianak@gmail.com, atau menghubungi Kantor Hukum Eka Kurnia Chrislianto & Rekan di sini.