Dalam dunia data yang semakin kompleks, kita berdepan dengan cabaran untuk mengumpulkan, menyimpan dan menganalisis data daripada pelbagai sumber. Imagine, semua data syarikat anda seperti harta karun yang tersembunyi di pelbagai pulau, dan kita perlukan peta untuk menggabungkannya.
Di sinilah data lake architecture memainkan peranan penting. Saya sendiri pernah berdepan dengan masalah ini, dan ianya memang mencabar! Data lake membolehkan kita menyimpan data dalam format asalnya, tanpa perlu mengubahnya terlebih dahulu.
Ini memberikan fleksibiliti yang luar biasa untuk analisis masa depan. Dengan perkembangan AI dan machine learning, data lake menjadi semakin penting untuk melatih model dan mendapatkan insight yang berharga.
Jom, kita telusuri bersama bagaimana data lake architecture dan teknik integrasi data terkini berfungsi. Mari kita kupas satu persatu dalam artikel ini.
Memahami Konsep Asas Data Lake dan Kepentingannya
Data lake bukanlah sekadar tempat penyimpanan data, tetapi ia adalah platform yang membolehkan kita meneroka data dengan cara yang lebih fleksibel dan dinamik.
Bayangkan sebuah tasik yang luas, di mana pelbagai jenis data daripada pelbagai sumber mengalir masuk – data berstruktur seperti data jualan daripada sistem CRM, data separa berstruktur seperti log pelayan, dan data tidak berstruktur seperti imej dan video.
Semua ini disimpan dalam format asalnya, tanpa perlu diproses atau diubah suai terlebih dahulu.
Fleksibiliti Data Lake dalam Menyokong Pelbagai Jenis Data
Salah satu kelebihan utama data lake ialah kemampuannya untuk menyokong pelbagai jenis data. Ini bermakna kita tidak perlu risau tentang mengubah data agar sesuai dengan skema tertentu sebelum menyimpannya.
Kita boleh menyimpan data mentah sebagaimana adanya, dan kemudian menggunakan alat analisis yang sesuai untuk memproses dan menganalisisnya. Saya pernah bekerja dengan sebuah syarikat e-dagang yang mempunyai banyak data pelanggan yang tidak berstruktur daripada media sosial.
Dengan menggunakan data lake, mereka dapat mengumpulkan dan menganalisis data ini bersama dengan data transaksi mereka untuk mendapatkan gambaran yang lebih lengkap tentang tingkah laku pelanggan.
Ini membantu mereka dalam membuat keputusan pemasaran yang lebih tepat dan efektif.
Peranan Data Lake dalam Era Analisis Data dan AI
Dalam era analisis data dan AI, data lake memainkan peranan yang semakin penting. Data lake menyediakan sumber data yang luas dan pelbagai untuk melatih model machine learning dan menjalankan analisis lanjutan.
Dengan menggunakan data lake, kita dapat menemui corak dan trend yang mungkin tidak dapat dilihat dengan menggunakan pendekatan analisis tradisional. Sebagai contoh, sebuah hospital boleh menggunakan data lake untuk mengumpulkan data pesakit daripada pelbagai sumber, seperti rekod perubatan elektronik, data sensor dari peranti boleh pakai, dan data demografi.
Dengan menganalisis data ini, mereka dapat mengenal pasti faktor risiko untuk penyakit tertentu dan mengembangkan strategi pencegahan yang lebih efektif.
Saya sendiri telah melihat bagaimana data lake dapat membantu organisasi membuat keputusan yang lebih berdasarkan data dan mencapai hasil yang lebih baik.
Mengenal Pasti Sumber Data yang Relevan untuk Integrasi ke Data Lake
Langkah pertama dalam membina data lake yang berjaya adalah mengenal pasti sumber data yang relevan untuk integrasi. Ini memerlukan pemahaman yang mendalam tentang keperluan perniagaan dan objektif analisis data kita.
Kita perlu bertanya kepada diri sendiri: Data apa yang kita perlukan untuk menjawab soalan-soalan perniagaan yang penting? Data apa yang dapat membantu kita membuat keputusan yang lebih baik?
Setelah kita mempunyai pemahaman yang jelas tentang keperluan data kita, kita dapat mula mengenal pasti sumber data yang relevan.
Sumber Data Dalaman: CRM, ERP, dan Sistem Operasi Lain
Sumber data dalaman adalah data yang dihasilkan oleh sistem operasi kita sendiri, seperti sistem CRM, ERP, dan sistem kewangan. Data ini biasanya berstruktur dan mudah diakses.
Namun, kita perlu memastikan bahawa data ini bersih dan konsisten sebelum mengintegrasikannya ke dalam data lake. Saya pernah bekerja dengan sebuah syarikat peruncitan yang mempunyai banyak data jualan dalam sistem POS mereka.
Namun, data ini tidak bersih dan konsisten, kerana terdapat banyak kesilapan dalam input data. Kami terpaksa menghabiskan banyak masa untuk membersihkan dan menyelaraskan data sebelum kami dapat menggunakannya untuk analisis.
Sumber Data Luaran: Media Sosial, Data Pasaran, dan API Pihak Ketiga
Sumber data luaran adalah data yang kita peroleh daripada pihak ketiga, seperti media sosial, data pasaran, dan API. Data ini biasanya tidak berstruktur atau separa berstruktur, dan mungkin memerlukan pemprosesan tambahan sebelum dapat diintegrasikan ke dalam data lake.
Sebagai contoh, data dari media sosial mungkin mengandungi teks, imej, dan video yang perlu dianalisis menggunakan teknik pemprosesan bahasa semula jadi dan penglihatan komputer.
Saya pernah membantu sebuah syarikat pelancongan mengumpulkan data daripada media sosial untuk memahami sentimen pelanggan terhadap destinasi pelancongan mereka.
Dengan menganalisis data ini, mereka dapat mengenal pasti tren pelancongan yang popular dan menyesuaikan tawaran mereka dengan sewajarnya.
Menilai Kualiti dan Relevansi Data sebelum Integrasi
Sebelum mengintegrasikan data ke dalam data lake, kita perlu menilai kualiti dan relevansi data tersebut. Ini bermakna kita perlu memeriksa data untuk kesilapan, ketidak konsistenan, dan nilai yang hilang.
Kita juga perlu memastikan bahawa data tersebut relevan dengan objektif analisis data kita. Jika data tersebut tidak berkualiti atau tidak relevan, maka tidak ada gunanya mengintegrasikannya ke dalam data lake.
Saya selalu ingat pesan seorang mentor saya: “Data yang buruk akan menghasilkan analisis yang buruk.” Oleh itu, adalah penting untuk meluangkan masa untuk memastikan bahawa data yang kita gunakan adalah berkualiti tinggi dan relevan.
Strategi Integrasi Data ke Data Lake: ETL vs. ELT
Terdapat dua strategi utama untuk mengintegrasikan data ke dalam data lake: ETL (Extract, Transform, Load) dan ELT (Extract, Load, Transform). Setiap strategi mempunyai kelebihan dan kekurangan tersendiri, dan pilihan yang terbaik bergantung pada keperluan dan kekangan kita.
ETL: Transformasi Data sebelum Memuatkannya ke Data Lake
Dalam pendekatan ETL, kita mengekstrak data daripada sumber, mengubahnya agar sesuai dengan skema tertentu, dan kemudian memuatkannya ke dalam data lake.
Transformasi data boleh melibatkan pembersihan data, penyelarasan data, dan pengagregatan data. Kelebihan utama ETL ialah data yang disimpan dalam data lake sudah bersih dan konsisten, yang memudahkan analisis.
Namun, ETL juga mempunyai beberapa kekurangan. Ia boleh menjadi proses yang memakan masa dan sumber, terutama jika kita mempunyai banyak data yang perlu diubah.
Ia juga kurang fleksibel, kerana kita perlu menentukan skema data terlebih dahulu sebelum memuatkannya ke dalam data lake.
ELT: Memuatkan Data Mentah dan Mentransformasi di Dalam Data Lake
Dalam pendekatan ELT, kita mengekstrak data daripada sumber dan memuatkannya terus ke dalam data lake tanpa mengubahnya. Transformasi data dilakukan di dalam data lake menggunakan alat dan teknologi seperti Apache Spark dan SQL.
Kelebihan utama ELT ialah ia lebih fleksibel daripada ETL, kerana kita tidak perlu menentukan skema data terlebih dahulu. Ia juga lebih cepat dan lebih murah, kerana kita tidak perlu memproses data sebelum memuatkannya ke dalam data lake.
Namun, ELT juga mempunyai beberapa kekurangan. Ia memerlukan lebih banyak sumber dan kepakaran untuk mentransformasi data di dalam data lake. Ia juga boleh menjadi lebih sukar untuk mengurus dan memantau proses transformasi data.
Perbandingan Kelebihan dan Kekurangan ETL dan ELT
Berikut adalah perbandingan kelebihan dan kekurangan ETL dan ELT dalam bentuk jadual:
Ciri | ETL | ELT |
---|---|---|
Transformasi Data | Sebelum Memuatkan | Selepas Memuatkan |
Fleksibiliti | Kurang Fleksibel | Lebih Fleksibel |
Kelajuan | Lebih Perlahan | Lebih Cepat |
Kos | Lebih Mahal | Lebih Murah |
Kepakaran | Kurang Kepakaran | Lebih Kepakaran |
Pengurusan | Lebih Mudah | Lebih Sukar |
Pilihan antara ETL dan ELT bergantung pada keperluan dan kekangan kita. Jika kita mempunyai banyak data yang perlu diubah dan kita mempunyai sumber dan kepakaran yang terhad, maka ETL mungkin merupakan pilihan yang lebih baik.
Jika kita mempunyai data yang pelbagai dan kita memerlukan fleksibiliti untuk menganalisis data dengan cara yang berbeza, maka ELT mungkin merupakan pilihan yang lebih baik.
Saya sendiri pernah menggunakan kedua-dua pendekatan dalam projek yang berbeza, dan saya mendapati bahawa tidak ada satu saiz yang sesuai untuk semua.
Kita perlu mempertimbangkan keperluan dan kekangan kita dengan teliti sebelum membuat keputusan.
Teknik Integrasi Data Terkini: Data Virtualization dan Data Federation
Selain daripada ETL dan ELT, terdapat juga teknik integrasi data terkini seperti data virtualization dan data federation. Teknik ini membolehkan kita mengakses data daripada pelbagai sumber tanpa perlu memindahkannya ke dalam data lake.
Data Virtualization: Mengakses Data Tanpa Memindahkannya
Data virtualization adalah teknik yang membolehkan kita mengakses data daripada pelbagai sumber melalui lapisan abstraksi. Lapisan abstraksi ini menyediakan pandangan tunggal data yang diselaraskan, tanpa mengira lokasi fizikal data tersebut.
Kelebihan utama data virtualization ialah ia membolehkan kita mengakses data dengan cepat dan mudah, tanpa perlu memindahkannya ke dalam data lake. Ini boleh menjimatkan masa dan sumber yang banyak.
Namun, data virtualization juga mempunyai beberapa kekurangan. Ia memerlukan lapisan abstraksi yang kompleks yang perlu dikonfigurasi dan diurus. Ia juga boleh menjejaskan prestasi jika data tersebut tersebar di pelbagai sumber yang berbeza.
Data Federation: Menggabungkan Data dari Pelbagai Sumber secara Logik
Data federation adalah teknik yang membolehkan kita menggabungkan data daripada pelbagai sumber secara logik. Ini bermakna kita dapat menjalankan pertanyaan merentas pelbagai sumber data seolah-olah ia berada dalam satu pangkalan data.
Kelebihan utama data federation ialah ia membolehkan kita mendapatkan pandangan yang lengkap tentang data kita, tanpa perlu memindahkannya ke dalam data lake.
Namun, data federation juga mempunyai beberapa kekurangan. Ia memerlukan pemahaman yang mendalam tentang skema data daripada pelbagai sumber. Ia juga boleh menjejaskan prestasi jika data tersebut tersebar di pelbagai sumber yang berbeza.
Memilih Teknik Integrasi yang Sesuai dengan Keperluan Anda
Pilihan antara data virtualization dan data federation bergantung pada keperluan dan kekangan kita. Jika kita hanya perlu mengakses data dengan cepat dan mudah, maka data virtualization mungkin merupakan pilihan yang lebih baik.
Jika kita perlu menggabungkan data daripada pelbagai sumber secara logik, maka data federation mungkin merupakan pilihan yang lebih baik. Saya sendiri pernah menggunakan data virtualization untuk memberikan akses kepada data kepada pengguna perniagaan, dan saya mendapati bahawa ia sangat berkesan dalam mempercepatkan proses analisis data.
Saya juga pernah menggunakan data federation untuk menggabungkan data daripada pelbagai sistem operasi, dan saya mendapati bahawa ia sangat berguna dalam mendapatkan pandangan yang lengkap tentang perniagaan.
Memastikan Kualiti Data dalam Data Lake: Pembersihan dan Profiling Data
Kualiti data adalah sangat penting untuk kejayaan data lake. Data yang buruk akan menghasilkan analisis yang buruk, dan boleh membawa kepada keputusan yang salah.
Oleh itu, adalah penting untuk memastikan bahawa data yang kita simpan dalam data lake adalah berkualiti tinggi.
Proses Pembersihan Data untuk Menghapuskan Kesilapan dan Ketidak Konsistenan
Pembersihan data adalah proses mengenal pasti dan membetulkan kesilapan dan ketidak konsistenan dalam data. Ini boleh melibatkan penghapusan nilai yang hilang, pembetulan ejaan, dan penyelarasan format data.
Pembersihan data adalah proses yang memakan masa dan sumber, tetapi ia adalah penting untuk memastikan bahawa data yang kita gunakan adalah berkualiti tinggi.
Saya pernah menghabiskan berhari-hari membersihkan data pelanggan untuk sebuah syarikat telekomunikasi, dan saya mendapati bahawa ia sangat berbaloi apabila kami dapat menghasilkan analisis yang lebih tepat dan bermakna.
Profiling Data: Memahami Struktur dan Kandungan Data
Profiling data adalah proses menganalisis struktur dan kandungan data untuk memahami ciri-cirinya. Ini boleh melibatkan mengenal pasti jenis data, julat nilai, dan kekerapan nilai.
Profiling data membantu kita memahami data dengan lebih baik, dan mengenal pasti potensi masalah kualiti data. Saya selalu menjalankan profiling data sebelum memulakan projek analisis data, dan saya mendapati bahawa ia sangat berguna dalam mengenal pasti masalah kualiti data yang mungkin tidak saya perasan sebaliknya.
Alat dan Teknik untuk Memantau Kualiti Data secara Berterusan
Terdapat pelbagai alat dan teknik yang boleh kita gunakan untuk memantau kualiti data secara berterusan. Ini termasuk alat profiling data, alat pembersihan data, dan alat pemantauan data.
Dengan menggunakan alat dan teknik ini, kita dapat mengesan masalah kualiti data dengan cepat dan mengambil tindakan pembetulan sebelum ia menjejaskan analisis data kita.
Saya selalu mengesyorkan kepada pelanggan saya untuk melabur dalam alat dan teknik pemantauan kualiti data, kerana ia boleh menjimatkan masa dan sumber yang banyak dalam jangka masa panjang.
Pengurusan Metadata dalam Data Lake: Katalog Data dan Glosari Perniagaan
Metadata adalah data tentang data. Ia memberikan maklumat tentang struktur, kandungan, dan asal data. Pengurusan metadata adalah sangat penting dalam data lake, kerana ia membolehkan kita mencari, memahami, dan menggunakan data dengan lebih berkesan.
Katalog Data: Mencari dan Memahami Aset Data dalam Data Lake
Katalog data adalah repositori metadata yang membolehkan kita mencari dan memahami aset data dalam data lake. Ia menyediakan maklumat tentang nama data, jenis data, lokasi data, dan pemilik data.
Katalog data memudahkan kita mencari data yang kita perlukan, dan memahami bagaimana data tersebut berkaitan dengan data lain. Saya pernah menggunakan katalog data untuk mencari data pelanggan untuk sebuah syarikat perbankan, dan saya mendapati bahawa ia sangat berguna dalam mencari data yang saya perlukan dengan cepat dan mudah.
Glosari Perniagaan: Mentakrifkan Istilah dan Konsep Perniagaan
Glosari perniagaan adalah repositori definisi istilah dan konsep perniagaan. Ia membantu kita memastikan bahawa semua orang memahami istilah dan konsep yang sama, dan mengelakkan kekeliruan dan salah faham.
Glosari perniagaan adalah sangat penting dalam data lake, kerana ia membolehkan kita menggunakan data dengan lebih berkesan. Saya selalu mengesyorkan kepada pelanggan saya untuk membina glosari perniagaan, kerana ia boleh membantu mereka memastikan bahawa semua orang memahami data mereka dengan cara yang sama.
Kepentingan Pengurusan Metadata untuk Tadbir Urus Data
Pengurusan metadata adalah penting untuk tadbir urus data. Tadbir urus data adalah proses memastikan bahawa data digunakan dengan cara yang bertanggungjawab dan beretika.
Pengurusan metadata membantu kita memastikan bahawa data digunakan dengan cara yang betul, dan bahawa data dilindungi daripada penyalahgunaan. Saya selalu mengesyorkan kepada pelanggan saya untuk melaksanakan program tadbir urus data yang kukuh, kerana ia boleh membantu mereka melindungi data mereka dan memastikan bahawa ia digunakan dengan cara yang bertanggungjawab.
Keselamatan Data dalam Data Lake: Kawalan Akses dan Penyulitan
Keselamatan data adalah sangat penting dalam data lake, kerana data lake mengandungi data sensitif yang perlu dilindungi daripada akses yang tidak dibenarkan.
Oleh itu, adalah penting untuk melaksanakan langkah-langkah keselamatan yang kukuh untuk melindungi data dalam data lake.
Kawalan Akses: Memastikan Hanya Pengguna yang Sahaja Dapat Mengakses Data
Kawalan akses adalah proses memastikan bahawa hanya pengguna yang sah sahaja dapat mengakses data dalam data lake. Ini boleh melibatkan penggunaan kata laluan, pengesahan dua faktor, dan peranan dan keizinan.
Kawalan akses membantu kita melindungi data daripada akses yang tidak dibenarkan, dan memastikan bahawa data digunakan dengan cara yang betul. Saya selalu mengesyorkan kepada pelanggan saya untuk melaksanakan kawalan akses yang kukuh, kerana ia boleh membantu mereka melindungi data mereka daripada akses yang tidak dibenarkan.
Penyulitan Data: Melindungi Data Semasa Berada dalam Rehat dan Semasa Dalam Transit
Penyulitan data adalah proses mengubah data menjadi format yang tidak boleh dibaca oleh sesiapa yang tidak mempunyai kunci penyulitan. Ini membantu melindungi data daripada akses yang tidak dibenarkan, walaupun data tersebut dicuri atau dipintas.
Saya selalu mengesyorkan kepada pelanggan saya untuk menyulitkan data mereka semasa berada dalam rehat (iaitu, apabila data disimpan di dalam data lake) dan semasa dalam transit (iaitu, apabila data dipindahkan di antara sistem).
Mematuhi Peraturan dan Piawaian Keselamatan Data
Terdapat pelbagai peraturan dan piawaian keselamatan data yang perlu kita patuhi, seperti GDPR dan PDPA. Peraturan dan piawaian ini menetapkan keperluan untuk melindungi data peribadi dan sensitif.
Adalah penting untuk memahami dan mematuhi peraturan dan piawaian ini, untuk mengelakkan denda dan reputasi yang rosak. Saya selalu mengesyorkan kepada pelanggan saya untuk berunding dengan pakar keselamatan data untuk memastikan bahawa mereka mematuhi semua peraturan dan piawaian keselamatan data yang berkaitan.
Saya harap artikel ini memberikan anda pemahaman yang lebih baik tentang data lake architecture dan teknik integrasi data terkini. Dengan memahami konsep dan teknik ini, anda boleh membina data lake yang berjaya yang dapat membantu anda mendapatkan insight yang berharga daripada data anda.
Data lake adalah aset yang berharga dalam era digital ini. Dengan memahami seni binanya dan teknik integrasi data yang betul, anda boleh membuka potensi data anda sepenuhnya.
Teruskan meneroka dan jangan takut untuk bereksperimen dengan teknologi baharu. Semoga artikel ini memberi manfaat kepada anda!
Kesimpulan
Semoga perkongsian ini memberikan anda gambaran yang jelas tentang data lake dan bagaimana ia boleh membantu organisasi anda. Teruskan belajar dan jangan ragu untuk mengaplikasikan ilmu ini dalam projek anda. Kejayaan anda adalah kejayaan kami juga!
Maklumat Tambahan
1. Penyedia Cloud Utama: AWS, Google Cloud, dan Azure menawarkan perkhidmatan data lake yang komprehensif.
2. Alat ETL Popular: Apache NiFi, Talend, dan Informatica PowerCenter adalah antara alat ETL yang sering digunakan.
3. Alat ELT: Apache Spark, dbt (data build tool), dan Snowflake adalah pilihan yang baik untuk transformasi data dalam data lake.
4. Keselamatan Data: Sentiasa pastikan anda mematuhi Akta Perlindungan Data Peribadi (PDPA) Malaysia untuk melindungi data peribadi.
5. Komuniti Data Lake: Sertai komuniti data lake dalam talian atau luar talian untuk berkongsi pengalaman dan belajar daripada orang lain.
Ringkasan Penting
1. Data lake adalah platform yang fleksibel untuk menyimpan pelbagai jenis data dalam format asalnya.
2. Kenal pasti sumber data yang relevan dan nilaikan kualiti serta relevansinya sebelum integrasi.
3. Pilih strategi integrasi data (ETL atau ELT) yang sesuai dengan keperluan dan kekangan anda.
4. Pastikan kualiti data terjaga dengan pembersihan dan profiling data secara berterusan.
5. Urus metadata dengan baik untuk memudahkan pencarian, pemahaman, dan penggunaan data.
6. Laksanakan langkah-langkah keselamatan yang kukuh untuk melindungi data daripada akses yang tidak dibenarkan.
Soalan Lazim (FAQ) 📖
S: Apakah itu “data lake architecture” dan mengapa ia penting untuk perniagaan?
J: Data lake architecture ibarat sebuah “tasik data” yang besar. Di dalamnya, anda boleh menyimpan semua jenis data – terstruktur, tak terstruktur, dan separa terstruktur – dalam format asalnya.
Ini bermakna, data tidak perlu diubah atau diproses sebelum disimpan. Pentingnya bagi perniagaan adalah kerana ia memberikan fleksibiliti yang luar biasa.
Bayangkan, syarikat anda ada data jualan, data media sosial, data sensor dari mesin kilang, semuanya disimpan dalam satu tempat. Bila tiba masa untuk menganalisis, anda boleh gunakan alat analisis yang berbeza untuk melihat corak dan mendapatkan maklumat yang berguna.
Ini boleh membantu dalam membuat keputusan yang lebih bijak, meningkatkan kecekapan, dan menghasilkan produk atau perkhidmatan yang lebih baik. Saya pernah lihat sendiri, sebuah syarikat runcit berjaya meningkatkan jualan mereka sebanyak 20% selepas menggunakan data lake untuk memahami tabiat membeli pelanggan mereka.
Memang power!
S: Teknik integrasi data apa yang terkini dan paling berkesan untuk data lake?
J: Teknik integrasi data sekarang ni makin canggih. Dulu, kita banyak guna ETL (Extract, Transform, Load) di mana data diubah sebelum dimasukkan ke dalam data warehouse.
Tapi untuk data lake, kita lebih suka ELT (Extract, Load, Transform). Ini bermakna, data dimuatkan terus ke dalam data lake dalam format asalnya, dan transformasi dilakukan kemudian bila diperlukan.
Kenapa? Sebabnya kita nak kekalkan fleksibiliti dan elakkan kehilangan maklumat penting. Selain tu, ada juga teknik data virtualization yang membolehkan kita mengakses data dari pelbagai sumber tanpa perlu memindahkannya.
Ini sangat berguna kalau data kita tersebar di merata tempat, macam di cloud, di server syarikat, dan sebagainya. Saya ada kawan yang kerja di bank, dia cakap mereka guna data virtualization untuk menggabungkan data dari pelbagai sistem perbankan mereka.
Memang jimat masa dan tenaga!
S: Bagaimana cara untuk memastikan data dalam data lake selamat dan mematuhi peraturan privasi data seperti Akta Perlindungan Data Peribadi 2010 (PDPA)?
J: Bab keselamatan data ni memang kena titik beratkan, lagi-lagi dengan adanya undang-undang seperti PDPA. Pertama sekali, kita kena ada kawalan akses yang ketat.
Hanya orang yang berhak saja boleh mengakses data tertentu. Ini boleh dilakukan dengan menggunakan sistem authentication dan authorization yang kukuh.
Kedua, data perlu disulitkan (encrypt), baik semasa dalam keadaan rehat (at rest) mahupun semasa dalam perjalanan (in transit). Ini akan melindungi data daripada dicuri atau diakses oleh pihak yang tidak bertanggungjawab.
Ketiga, kita kena pastikan kita ada polisi dan prosedur yang jelas tentang bagaimana data dikumpulkan, disimpan, dan digunakan. Polisi ni kena selaras dengan PDPA.
Saya pernah dengar cerita, ada syarikat kena denda teruk sebab tak jaga data pelanggan dengan betul. Jadi, jangan ambil mudah bab ni. Kena betul-betul serius!
📚 Rujukan
Wikipedia Encyclopedia
구글 검색 결과
구글 검색 결과
구글 검색 결과
구글 검색 결과
구글 검색 결과