Monday 8 December 2014

Resume Data Warehouse pertemuan 10

DTS
Sekumpulan utilitas yang memungkinkan proses ExtractTransform, dan Load secara otomatis dari atau ke database.
FUNGSI DTS
untuk melakukan import, export dan transport data yang beragam antara satu atau lebih sumber data, seperti misalnya SQL Server, Microsoft Excel atau Microsoft Access.
DTS tersedia dalam Microsoft SQL Server, namun sejak Microsoft SQL Server 2005 DTS digantikan oleh SQL Server Integration Services (SSIS). Walaupun demikian, DTS masih bisa diinstall sebagai tambahan packages dan dijalankan pada Microsoft SQL Server 2005 dan lebih baru.\
PERBEDAAN DTS DAN SSIS
DTS :
  1. DTS adalah sekumpulan dari obyek yang digunakan sebagai alat ETS Tools untuk mengekstrak, mentransform dan memuat informasi dari sebuah database
  2. DTS adalah bagian dari Microsoft SQL Server 2000
  3. Menggunakan Activex Script
  4. Tidak ada cara cepat
  5. Transformasi yang tersedia terbatas
  6. Tidak didukung fungsi Business Intelegent
  7. Hanya bisa dikembangkan di server local

SSIS :
  1. SSIS adalah sebuah alat yang disediakan Microsoft untuk mengekstrak data dari sumber lain
  2. SSIS adalah komponen dari Microsoft SQL Server 2005
  3. Menggunakan Scripting Language
  4. Ada cara cepat
  5. Tersedianya fitur tranformasi yang sangat besar
  6. Didukung oleh fungsi Business Intellegent
  7. Dapat dikembangkan di berbagai server menggunakan BIDS

Saturday 29 November 2014

Resume Data Warehouse pertemuan 9

„DEFINISI DTS
adalah memindahkan data dari database OLTP ke data warehouse dengan tujuannya. Hal ini dilakukakn ketika validasi, cleaning up, konsolidasi, dan mengubah data yang diperlukan. (Vieria, Robert, 2000, p91)
TOOLS DTS 
„Tool-tool yang tersedia untuk menciptakan dan mengeksekusi DTS packages
1.Import Export Wizzard
Import/Export Wizard untuk membangun DTS packages sederhana dan mensupport perpindahan data dan transformasi sederhana.Import Export Wizzard
2.DTS Designer
DTS Designer mengimplementasikan DTS object model graphically yang memungkinkan user untuk menciptakan DTS packages dengan fungsi luas.
3.DTS Run
DTSRun merupakan command prompt utility yang digunakan untuk mengeksekusi DTS packages yang ada.
4.DTSRunUI
DTSRunUI merupakan grafik interface untuk DTSRun, yang juga mengijinkan pemakaian variable global dan command lines.
TASK DALAM SEBUAH PACKAGE
  1. Transformasi data
  2. Mengcopy dan mengatur data
  3. Menjalankan tasks sebagai jobs dari dalam sebuah package

CONNECTION UNTUK MENGAKSES DAN MEMINDAHKAN DATA
„Agar eksekusi DTS tasks dalam menyalin dan memindahkan data berjalan sukses, sebuah DTS package harus mempunyai hubungan yang valid antara sumber data asal dengan sumber data tujua. Ketika menciptakan sebuah package, user dapat mengkonfigurasikan hubungan dengan memilih jenis hubungan dari daftar yang tersedia pada OLE DB providers dan ODBC drivers. Jenis hubungan yang tersedia antara lain:
  1. Microsoft Data Acces Component (MDAC) drivers
  2. Microsoft Jet drivers
  3. Other drivers
  4. OLE DB CONNECTION

Saturday 22 November 2014

Resume Data Warehouse Pertemuan 8

Ketika kita bicara tentang DATA, yang terpikirkan saya pertama kali adalah hasil capture/tangkapan berupa fakta-fakta lapangan atau arsip-arsip yang biasanya berserakan dimana-mana, atau data dapat didefinisikan sesuatu yang belum memiliki makna (cikal bakal informasi). Saya membuat artikel ini sebagai salah satu keperluan untuk referensi tugas saya, dan kalau ditulis diblog bisa dibaca lagi suatu saat kalau lupa lagi. Mari kita mulai dengan mendefinisikan data menurut beberapa sumber:
Menurut Turban et al. (2005, p38), data adalah deskripsi dasar tentang sesuatu, kejadian, kegiatan, dan transaksi yang ditangkap, direkam, disimpan, dan diklasifikasikan namun tidak terorganisir untuk menyampaikan suatu arti khusus.
Menurut McLeod dan Schell (2007, p12), data terdiri dai fakta dan gambaran yang secara umum tidak dapat digunakan oleh user (perlu diolah).
Dari kedua definisi diatas, dapat diambil kesimpulan bahwa data adalah fakta yang masih mentah dan belum memiliki arti bagi pengguna karena belum diolah.
Semakin banyaknya data yang menumpuk dalam sebuah perusahaan, maka dibutuhkan sebuah penyortiran atau penilaian apakah data tersebut berkualitas atau tidak, sehingga hanya data yang berkualitas saja yang dipertahankan dan diarsipkan, data yang tidak berkualitas, ya masuk sampah. Jika tidak ada penilaian atau pengukuran seperti ini akan mungkin begitu menumpuknya data tetapi tidak berkualitas. Nah berikut ini akan diberikan penjelasan data yang berkualitas itu seperti apa, sehingga sebuah organisasi dapat memanfaatkan data tersebut untuk kepentingan lain dan akan mengurangi sapce/tempat penyimpanan dan efisien.
Menurut Mark Mosley (2008), dalam bukunya “Dictionary of Data Management”, pengertian kualitas data adalah level data yang menyatakan data tersebut akurat (accurate), lengkap (complete), timely (update), konsisten (consistent) sesuai dengan semua kebutuhan peraturan bisnis dan relevan.
Beberapa indikator data yang berkualitas antara lain sebagai berikut:
  1. ACCURACY = data yang tersimpan nilainya benar (name cocok dengan alamatnya)
  2. DOMAIN INTEGRITY = nilai attributnya sesuai batasan yang diperkenankan (nilai attribut laki n perempuan)
  3. DATA TYPE = Nilai data disimpan dalam tipe data yang sesuai (data nama disimpan dengan tipe text)
  4. CONSISTENCY = nilai sebuah field data akan sama semua dalam berbagai berkas (field produk A dgn kode 123, akan selalu sama kodenya di setiap berkas lain)
  5. REDUDANCY = tidak boleh ada data yang sama disimpan di tempat yang berbeda dalam satu sistem
  6. COMPLETENESS = Tidak ada nilai atttribut salah yang diberikan dalam sistem
  7. DATA ANOMALY = sebuah field hanya digunakan sesuai kegunaannya. (field address3  digunakan untuk mencatat baris ketiga dalam alamat bukan untuk telp atau fax)
  8. CLARITY = Kejelasan arti kegunaan dan cara penulisan sebuah data (penamaan khusus)
  9. TIMELY = merepresentasikan waktu dari data yang dimasukkan (jika data digunakan perhari maka data pada warehaouse harus juga dibuat per hari)
  10. USEFULNESS = setiap data harus benar digunakan oleh user
  11. ADHERENCE TO DATA INTEGRITY RULES = taat pada aturan keterhubungan data
Ada beberapa teknik pengukuran apakah data di organisasi/perusahaan kita berkualitas atau tidak, salah satunya dalam buku “Executing Data Quality Projects: Ten Steps to  Quality Data and Trusted Information” oleh Danette McGilvray dari MIT dengan 10 langkah seperti pada gambar dibawah ini

Selain kita menentukan data yang berkualitas, kita juga sebaiknya memperhatikan siklus hidup dari data tersebut, bagaimana data dibuat, disimpan sampai dengan data tersebut dihancurkan, seperti apa metode dari setiap pase-nya.

Monday 17 November 2014

Resume Data Warehouse Pertemuan 7

Pengertian Extract Transform Load ( ETL)


ETL adalah kumpulan proses menyiapkan data dari operational source untuk data. Proses ini terdiri dari extracting,transformingloading, dan beberapa proses yang dilakukan sebelum dipublikasikan ke dalamdata warehouse. Jadi, ETL atauextract, transform, loading adalah fase pemrosesan data dari sumber data masuk ke dalam data warehouse. Tujuan ETL adalah mengumpulkan, menyaring, mengolah dan menggabungkan datadata yang relevan dari berbagai sumber untuk disimpan ke dalam data warehouse. ETL juga dapat digunakan untuk mengintegrasikan data
Dengan sistem yang sudah ada sebelumnya. Hasil dari proses ETL adalah dihasilkannya data yang memenuhi kriteria data warehouse seperti data historis, terpadu, terangkum, statis dan memiliki struktur yang dirancang untuk keperluan proses analisis. Proses ETL terdiri dari tiga tahap, yaitu :
1. Extract
Langkah pertama dari proses ETL adalah proses penarikan data dari satu atau lebih sistem operasional sebagai sumber data (bisa diambil dari sistem OLTP, tapi bisa juga dari sumber data di luar system database). Kebanyakan proyek data warehousemenggabungkan data dari sumber-sumber yang berbeda. Pada hakekatnya, proses ekstraksi adalah proses penguraian dan pembersihan data yang diekstrak untuk mendapatkan suatu pola atau struktur data yang diinginkan.

Terdapat beberapa fungsi ekstraksi data, yaitu :

  1. Ekstraksi data secara otomatis dari aplikasi sumber.
  2. Penyaringan atau seleksi data hasil ekstraksi.
  3. Pengiriman data dari berbagai platform aplikasi ke sumber data.
  4. Perubahan format layout data dari format aslinya.
  5. Penyimpanan dalam file sementara untuk penggabungan dengan hasil ekstraksi dari sumber lain.

2. Transform
Proses membersihkan data yang telah diambil pada proses extract sehingga data itu sesuai dengan struktur data warehouse atau data mart. Hal-hal yang dapat dilakukan dalam tahap transformasi :

  1. Hanya memilih kolom tertentu saja untuk dimasukkan ke dalam data warehouse.
  2. Menerjemahkan nilai berupa kode (misal, database sumber menyimpan nilai 1 untuk pria dan 2 untuk wanita, tetapi data warehouse menyimpan M untuk pria dan F untuk wanita). Proses yang dilakukan disebut automated data cleansing, tidak ada pembersihan secara manual selama proses ETL.
  3. Mengkodekan nilai-nilai ke dalam bentuk bebas ( missal memetakan ”male” ,”I”, dan ”Mr ke dalam ”M”).
  4. Melakukan perhitungan nilai-nilai baru (misal sale_amount = qty*unit_price).
  5. Menggabungkan data dari berbagai sumeber bersama-sama.
  6. Membuat ringkasan dari sekumpulan baris data (misal, total penjualan untuk setiap bagian).
Kesulitan yang terjadi pada proses transformasi adalah data harus digabungkan dari beberapa sistem terpisah, harus dibersihkan sehingga konsisten dan harus diagregasi untuk mempercepat analisis.
3. Load
Fase load merupakan tahapan yang berfungsi untuk memasukkan data ke dalam target akhir, yaitu ke dalam suatu data warehouse. Waktu dan jangkauan untuk mengganti atau menambah data tergantung pada perancangan data warehouse pada waktu menganalisa keperluan informasi. Fase load berinteraksi dengan suatu database,constraint didefinisikan dalam skema database sebagai suatu trigger yang diaktifkan pada waktu melakukan load data (contohnya : uniqueness,referential, integrity, mandatory fields), yang juga berkontribusi untuk keseluruhan tampilan dan kualitas data dari proses ETL.


Sunday 19 October 2014

Resume Data Warehouse pertemuan 6

Dalam menggambarkan relasi database pada data warehouse dapat digunakan 2 pendekatan model skema yaitu star schema atau snowflake schema. Disebut star schema karena EntityRelationship Diagram atau ERD-nya yang menyerupai bintang, tabel fakta berada di tengah dengan dikelilingi tabel dimensi di sampingnya.
Berikut adalah contoh gambar star schema :



Sedangkan snowflake schema lebih kompleks dibandingkan dengan star schema karena merupakan pengembangan dari star schema, karena tabel-tabel dimensinya merupakan hasil normalisasi dari beberapa tabel yang berhubungan.
Berikut adalah contoh gambar snowflake schema :

Berdasarkan hasil penelitian yang dilakukan oleh Paiman dkk. (2010) yang berjudul “Analisis Perbandingan Antara Model Dimensi Star Schema Dan Snowflake”, didapat kesimpulan mengenai kelebihan dan kekurangan baik dari star schema maupun snowflake schema. Penelitian ini dilakukan dengan cara mengolah database adventureworks yang merupakan database sampel yang telah disiapkan oleh Microsoft SqlServer 2005. Dari databasetersebut dibuat beberapa skenario yang diterapkan menggunakan dua model skema yaitu star schema dan snowflake schema.
Berikut adalah kelebihan dan kekurangan model dimensi star schema.
Kelebihan model dimensi star schema :
  1. cenderung mudah dipahami karena modelnya yang lebih sederhana,
  2. memudahkan mencari isi karena kesderhanaannya dengan cara melihat step by stepdari masing-masing dimensinya,
  3. proses query lebih cepat pada saat proses OLAP.
Kekurangan model dimensi star schema :
  1. ukuran data lebih besar karena ada data yang disimpan ulang,
  2. maintenance dan update lebih sulit.
Berikut adalah kelebihan dan kekurangan model dimensi snowflake schema.
Kelebihan model dimensi snowflake schema :
  1. ukuran data lebih kecil di dalam tempat penyimpanan,
  2. lebih mudah dilakukan maintenance dan update,
  3. proses query lebih cepat pada saat proses ETL.
Kekurangan model dimensi snowflake schema :
  1. cenderung lebih sulit dipahami karena kompleksitasnya,
  2. sulit mencari isi karena melihat strukturnya yang kompleks dan bercabang-cabang.
Sumber
Sumber 2 : Paiman, A.S., William, R., Willyam, F., 2010. Analisis Perbandingan Antara Model Dimensi Star Schema Dan Snowflake. Universitas Bina Nusantara, Jakarta.
sumber 3 : Ramadhan, T.I., 2013. Perancangan dan Pembuatan Data Warehouse (Studi Kasus Database Swalayan Kopma UGM). Universitas Gadjah Mada, Yogyakarta

Tuesday 14 October 2014

Tugas Data Warehouse Pertemuan 6

Gambar Tabel Database Adventureworks Diagram

Berdasarkan tabel-tabel dan relasi yang ada pada gambar tersebut, dibuatkan ilustrasi skenario yaitu supervisor dari perusahaan A ingin mendapatkan laporan penjualan barang meliputi jumlah barang yang terjual dan total penjualan dimana laporan tersebut dapat dilihat dari segi product, product subcategory, currency rate, dan customer. supervisor perusahaan juga ingin melihat laporan tersebut dalam periode bulanan, quartal, dan tahunan. dari permintaan tersebut, maka dibuatlah diagram OLAP dimensi star schema berikut

Gambar Tabel Diagram Star Schema

resume data warehouse pertemuan 4

Wednesday 1 October 2014

Tugas Data Warehouse Pertemuan-3

1. Sumber Paper

2. Soal beserta solusi yang berhubungan dengan data warehouse yang diambil dari paper:

1. Mengapa perusahan melakukan pengembangan terhadap Data Warehouse yang dimilikinya?
   karena entry ulang untuk melakukan analisa data harian masih manual, sehingga diharapkan mempercepat proses analisa data harian dan dihasilkan output yang lebih akurat karena impor data dilakukan secara otomatis. Ini dikarenakan OLAP modelling dan interaksi antara SSIS, SSAS, SSRS pada SQL Server 2012 dapat dilakukan dengan mudah sehingga memungkinkan tim Teknologi Informasi PT Adaro Energy Tbk memantau kondisi yang sedang dialami perusahaan. Selain itu, fitur Powerview yang terdapat pada solusi Business Intelligence sangat membantu proses analisa yang dibutuhkan untuk proses pengambilan keputusan. Dengan arsitektur data warehousing yang terintegrasi, implementasi OLAP dan pelaporan dapat mempercepat waktu pembuatan laporan mingguan dari 1-2 hari menjadi 1-2 jam.

2. Apa tujuan dari dari pengembangan data warehouse ini?
untuk meningkatkan produktivitas perusahaan dengan meminimalisir data re-entry secara manual, yang kemudian meningkatkan jumlah analisa data harian, mengurangi pelaporan manual non-standar, meningkatkan transparansi antar-departemen, dan meningkatkan kesadaran karyawan terhadap proses kerja mereka, baik sebelum maupun sesudah melakukan pekerjaan

Wednesday 24 September 2014

Resume Data warehouse pertemuan ke-2

perbedaan antara data warehouse dan data mart adalah:

  • data warehouse merupakan kumpulan dari beberapa data mart dan levelnya berada pada perusahaan atayu organisasi.
  • data mart merupakan bagian dari data warehouse dan beada pada lebel departemen pada perusahaan atau organisasi tersebut. data mart menangani sebuah proses bisnis, misalkan penjualan maka hanya proses penjualan saja yang ditangani pada data mart

Data warehouse sendiri adalah database yang berisi data dari beberapa system operasional yang terintegrasi dan terstruktur sehingga dapat digunakan untuk mendukung analisa dan proses pengambilan keputusan dalam bisnis. Data warehouse didesain untuk kita bisa melakukan query secara cepat. Informasi diturunkan dari data lain, dilakukan rolling up untuk dijadikan ringkasan, dilakukan operasi drilling down untuk mendapatkan informasi lebih detail, atau melihat pola yang menarik atau melihat trend (kecenderungan).
Kemudian yang dimaksud data mart adalah lapisan akses dari data  warehouse lingkungan yang digunakan untuk mendapatkan data keluar bagi pengguna. Data mart adalah subset dari data warehouse yang biasanya berorientasi pada lini bisnis tertentu atau tim. Dalam beberapa penyebaran, masing-masing departemen atau unit bisnis dianggap sebagai pemilik data mart yang termasuk semua perangkat lunak, perangkat keras dan data.
berikut adalah perbedaan data warehouse dan data mart pada tabel:


Wednesday 17 September 2014

Resume Data Warehouse Pertemuan Ke-1

Menurut W.H. Inmon dan Richard D.H., data warehouse adalahkoleksi data yang mempunyai sifat berorientasi subjek,terintegrasi,time-variant, dan bersifat tetap dari koleksi data dalam mendukung proses pengambilan keputusan management.
Sedangkan Vidette Poe, data warehouse merupakan database yang bersifat analisis dan read only yang digunakan sebagai fondasi dari sistem penunjang keputusan.
Data warehouse juga bisa diartikan sebagai database relasional yang didesain lebih kepada query dan analisa dari pada proses transaksi, biasanya mengandung history data dari proses transaksi dan bisa juga data dari sumber lainnya.
Data warehouse memisahkan beban kerja analisis dari beban kerja transaksi dan memungkinkan organisasi menggabung/konsolidasi data dari berbagai macam sumber. Jadi, data warehouse merupakan metode dalam perancangan database, yang menunjang DSS(Decission Support System) dan EIS (Executive Information System). Secara fisik data warehouse adalah database, tapi perancangan data warehouse dan database sangat berbeda. Dalam perancangan database tradisional menggunakan normalisasi, sedangkan pada data warehouse normalisasi bukanlah cara yang terbaik.


  • OLTP
Online Transaction Processing atau sering dikenal dengan OLTP adalah sistem yang berorientasi proses yang memproses transaksi secara langsung melalui komputer yang terhubung dalam jaringan.
Misalnya biasa digunakan pada sebuah supermarket, kasir menggunakan mesin dalam proses transaksinya.
OLTP mempunyai karakteristik beberapa user dapat creating, updating, retrievinguntuk setiap record data, OLTP sangat optimal untuk updating data.

  • ETL
Proses ETL merupakan suatu landasan dari sebuah data warehouse. Sebuah rancangan ETL yang benar akan mengekstraksi data dari sistem sumber, mempertahankan kualitas data dan menerapkan aturan-aturan standar, dan menyajikan data dalam berbagai bentuk, sehingga dapat digunakan dalam proses pengambilan keputusan (Kimball dan Caserta 2004).
Proses ETL merupakan sebuah urutan dari tahapan yang dimulai darisourcing data (src) lalu data di-transform melalui proses look-up bulk data (lkpbld) dan transform (xfm). Proses ETL diakhiri dengan proses load ke berbagai macam output yang sesuai dengan skema, yang terdiri dari proses load-up data (lodupd),load-insert data (lodins), dan load bulk data (lodbld). Dari tahapan-tahapan tersebut, dapat dianalisis kinerja EDW PM berdasarkan estimasi waktu tiap prosesnya.

  • OLAP
Online Analytical Processing, atau disingkat OLAP adalah metode pendekatan untuk menyajikan jawaban dari permintaan proses analisis yang bersifat dimensional secara cepat, yaitu desain dari aplikasi dan teknologi yang dapat mengoleksi, menyimpan, memanipulasi suatu data multidimensi untuk tujuan analis. OLAP adalah bagian dari kategori yang lebih global dari pemikiran bisnis, yang juga merangkum hubungan antara pelaporan dan penggalian data. Aplikasi khusus dari OLAP adalah pelaporan bisnis untuk penjualan, pemasaran, manajemen pelaporan, manajemen proses bisnis (MPB), penganggaran dan peramalan, laporan keuangan dan bidang-bidang yang serupa. Istilah OLAP merupakan perampingan dari istilah lama database OLTP (Online Transaction Processing).

  • KARAKTERISTIK DATA WAREHOUSE

Menurut Inmon,  Data Warehouse memiliki 4 karakteristik yaitu :


1. Subject Oriented (Berorientasi subject)

Data Operasional
Data Warehouse
Dirancang berorientasi hanya pada aplikasi dan fungsi tertentu
Dirancang berdasar pada subjek-subjek tertentu(utama)
Focusnya pada desain database dan proses
Focusnya pada pemodelan data dan desain data
Berisi rincian atau detail data
Berisi data-data history yang akan dipakai dalam proses analisis
Relasi antar table berdasar aturan terkini(selalu mengikuti rule(aturan) terbaru)
Banyak aturan bisnis dapat tersaji antara tabel-tabel

Tabel 1 Data Operasiaonal dan Data Warehouse 

Data warehouse berorientasi subject artinya data warehouse didesain untuk menganalisa data berdasarkan subject-subject tertentu dalam organisasi,bukan pada proses atau fungsi aplikasi tertentu. Data warehouse diorganisasikan disekitar subjek-subjek utama dari perusahaan(customers,products dan sales) dan tidak  diorganisasikan pada area-area aplikasi utama(customer invoicing,stock control dan product sales). Hal ini dikarenakan kebutuhan dari data warehouse untuk menyimpan data-data yang bersifat sebagai penunjang suatu keputusan, dari pada aplikasi yang berorientasi terhadap data. Jadi dengan kata lain, data yang disimpan adalah berorientasi kepada subjek bukan terhadap proses. Secara garis besar perbedaan antara data operasional dan data warehouse dapat dilihat pada Tabel 1

    2. Integrated (Terintegrasi)

    Data Warehouse dapat menyimpan data-data yang berasal dari sumber-sumber yang terpisah kedalam suatu format yang konsisten dan saling terintegrasi satu dengan lainnya. Dengan demikian data tidak bisa dipecah-pecah karena data yang ada merupakan suatu kesatuan yang menunjang keseluruhan konsep data warehouse itu sendiri. Syarat integrasi sumber data dapat dipenuhi dengan berbagai cara sepeti konsisten dalam penamaan variable,konsisten dalam ukuran variable,konsisten dalam struktur pengkodean dan konsisten dalam atribut fisik dari data. Contoh pada lingkungan operasional terdapat berbagai macam aplikasi yang mungkin pula dibuat oleh developer yang berbeda. Oleh karena itu, mungkin dalam aplikasi-aplikasi tersebut ada variable yang memiliki maksud yang sama tetapi nama dan format nya berbeda. Variable tersebut harus dikonversi menjadi nama yang sama dan format yang disepakati bersama. Dengan demikian tidak ada lagi kerancuan karena perbedaan nama, format dan lain sebagainya. Barulah data tersebut bisa dikategorikan sebagai data yang terintegrasi karena kekonsistenannya.

      3. Time-variant (Rentang Waktu)

      Seluruh data pada data warehouse dapat dikatakan akurat atau valid pada rentang waktu tertentu. Untuk melihat interval waktu yang digunakan dalam mengukur keakuratan suatu data warehouse, kita dapat menggunakan cara antara lain :
      • Cara yang paling sederhana adalah menyajikan data warehouse pada rentang waktu tertentu, misalnya antara 5 sampai 10 tahun ke depan.
      • Cara yang kedua, dengan menggunakan variasi/perbedaan waktu yang disajikan dalam data warehouse baik implicit maupun explicit secara explicit dengan unsur waktu dalam hari, minggu, bulan dsb. Secara implicit misalnya pada saat data tersebut diduplikasi pada setiap akhir bulan, atau per tiga bulan. Unsur waktu akan tetap ada secara implisit didalam data tersebut.
      • Cara yang ketiga,variasi waktu yang disajikan data warehouse melalui serangkaian snapshot yang panjang. Snapshot merupakan tampilan dari sebagian data tertentu sesuai keinginan pemakai dari keseluruhan data yang ada bersifat read-only.

      4. Non-Volatile


        Karakteristik keempat dari data warehouse adalah non-volatile,maksudnya data pada data warehouse tidak di-update secara real time tetapi di refresh dari sistem operasional secara reguler. Data yang baru selalu  ditambahkan sebagai suplemen bagi database itu sendiri dari pada sebagai sebuah perubahan. Database tersebut secara kontinyu menyerap data baru ini, kemudian secara incremental disatukan dengan data sebelumnya. Berbeda dengan database operasional yang dapat melakukan update,insert dan delete terhadap data yang mengubah isi dari database sedangkan pada data warehouse hanya ada dua kegiatan memanipulasi data yaitu loading data (mengambil data) dan akses data (mengakses data warehouse seperti melakukan query atau menampilan laporan yang dibutuhkan, tidak ada kegiatan updating data).

        KEUNTUNGAN DATA WAREHOUSE

        Data warehouse merupakan pendekatan untuk menyimpan data dimana sumber-sumber data yang heterogen(yang biasanya tersebar pada beberapa database (OLTP) dimigrasikan untuk penyimpanan data yang homogen dan terpisah. Keuntungan dengan menggunakan data warehouse adalah :
        1. Data diorganisir dengan baik untuk query analisis dan sebagai bahan untuk pemrosesan transaksi.
        2. Perbedaan diantara struktur data yang heterogen pada beberapa sumber yang terpisah dapat diatasi.
        3. Aturan untuk transformasi data diterapkan untuk memvalidasi dan mengkonsolidasi data apabila data dipindahkan dari database OLTP ke data warehouse.
        4. Masalah keamanan dan kinerja bisa dipecahkan tanpa perlu mengubah sistem produksi.

        Sumber  :

        1. Sumber 1, diakses 12 September 2014
        2. Sumber 2, diakses 12 September 2014
        3. Sumber 3, diakses 15 September 2014