Ketentuan dan Implementasi AWS S3

nda bisa langsung mengunggah data ke S3 Glacier Deep Archive, tetapi pendekatan yang paling efisien dan umum digunakan, terutama untuk data yang berumur, adalah melalui proses step-by-step yang diotomatisasi menggunakan S3 Lifecycle Management.

Dua Pendekatan Utama Penggunaan Kelas Penyimpanan

 

Pada dasarnya, ada dua cara untuk menempatkan objek Anda ke dalam kelas penyimpanan S3, termasuk kelas arsip dingin seperti S3 Glacier Deep Archive (S3 GDA):

 

1. Pendekatan Upload Langsung (Direct Upload)

 

Anda dapat menentukan kelas penyimpanan data saat pertama kali mengunggah objek ke bucket S3.

 

Ketentuan dan Implementasi:

 

  • Implementasi: Saat mengunggah objek menggunakan AWS CLI, SDK, atau Console, Anda menyertakan header x-amz-storage-class yang menentukan kelas target.

  • Contoh AWS CLI: Untuk langsung mengunggah sebuah file ke S3 Glacier Deep Archive:

				
					**aws s3 cp** dokumen-arsip.zip **s3://nama-bucket/arsip/** \
**--storage-class DEEP_ARCHIVE**
				
			
  • Command --storage-class DEEP_ARCHIVE adalah command yang menentukan kelas penyimpanan target.

  • Kapan Digunakan:

    • Jika Anda tahu pasti bahwa data tersebut adalah arsip permanen yang tidak akan pernah diakses dalam waktu dekat (misalnya, data kepatuhan regulasi tahunan).

    • Untuk data yang diunggah secara manual dan berjumlah kecil.

 

Kelemahan Direct Upload:

 

  • Tidak Efisien untuk Data Baru: Jika data awalnya digunakan secara aktif, tetapi Anda langsung mengunggahnya ke S3 GDA, Anda tidak bisa langsung mengaksesnya. Pengambilan data dari S3 GDA membutuhkan waktu berjam-jam dan dikenakan biaya pengambilan (retrieval) yang spesifik.

  • Memerlukan Perubahan Kode: Pendekatan ini membutuhkan penyesuaian di sisi aplikasi atau script upload Anda.


 

2. Pendekatan Transisi Otomatis (S3 Lifecycle Management)

 

Pendekatan ini adalah metode terbaik, paling hemat biaya, dan paling sering digunakan di lingkungan enterprise. Ini melibatkan penempatan data di kelas yang lebih mahal (hot storage) dan kemudian secara otomatis memindahkannya ke kelas yang lebih murah (cold storage) seiring berjalannya waktu.

 

Cara Kerja Lifecycle Management:

 

  1. Mulai di S3 Standard: Data (misalnya, log file atau unggahan pengguna) diunggah pertama kali ke S3 Standard atau S3 Intelligent-Tiering.

  2. Konfigurasi Aturan: Anda mengatur Lifecycle Rules pada bucket Anda. Aturan ini menentukan kapan data harus bergerak dan ke mana.

  3. Transisi Otomatis: Setelah jumlah hari yang ditentukan (misalnya, 30 hari), S3 secara otomatis memindahkan data ke kelas yang lebih dingin, mengoptimalkan biaya penyimpanan tanpa intervensi manusia.

 

Contoh Alur Transisi yang Ideal (Step-by-Step):

 

Ini adalah alur step-by-step yang paling umum untuk mencapai efisiensi biaya maksimum, terutama untuk data yang bersifat log atau backup:

TahapKelas PenyimpananTujuanTransisi Setelah
Akses Aktif (Hot)S3 StandardKetersediaan sangat tinggi dan latensi rendah.30 Hari
Akses Jarang (Cool)S3 Standard-IABiaya lebih rendah; siap jika sewaktu-waktu dibutuhkan.90 Hari
Arsip Segera (Cold)S3 Glacier Instant RetrievalBiaya sangat rendah; dapat diakses dalam milidetik.1 Tahun (365 Hari)
Arsip Permanen (Deep Cold)S3 Glacier Deep ArchiveBiaya terendah; hanya diakses 1-2 kali per dekade.5 Tahun (1825 Hari)

 

Manfaat Transisi Otomatis:

 

  • Optimasi Biaya: Anda hanya membayar tarif tertinggi (S3 Standard) selama data Anda benar-benar aktif. Setelah itu, biaya penyimpanan turun drastis.

  • Kepastian Kepatuhan: Memastikan data yang sudah lama tersimpan secara otomatis dan aman sesuai dengan kebijakan retensi.

  • Tanpa Perubahan Kode: Aplikasi Anda selalu mengunggah ke S3 Standard; logika transisi ditangani sepenuhnya oleh AWS.


 

Konfigurasi S3 Lifecycle Rule (Wajib)

 

Untuk mengotomatisasi proses step-by-step ini, Anda harus membuat dan menerapkan Lifecycle Rule ke bucket Anda. Aturan ini didefinisikan dalam format JSON dan dikelola melalui Console S3.

Berikut adalah contoh snippet JSON untuk sebuah Lifecycle Rule yang mengimplementasikan alur step-by-step di atas (dari S3 Standard ke S3 Standard-IA, lalu ke S3 GDA):

 
				
					{
  "Rules": [
    {
      "ID": "**Transition-to-Deep-Archive-Flow**",
      "Status": "**Enabled**",
      "Filter": {
        "Prefix": "**logs/**"
      },
      "Transitions": [
        {
          "Days": **30**,
          "StorageClass": "**STANDARD_IA**"
        },
        {
          "Days": **180**,
          "StorageClass": "**GLACIER_DEEP_ARCHIVE**"
        }
      ],
      "Expiration": {
        "Days": **3650** }
    }
  ]
}
				
			
  • Penjelasan Kode:

     

    • "Prefix": "logs/**": Aturan ini hanya berlaku untuk objek yang berada di folder logs/.

    • "Days": 30, "StorageClass": "STANDARD_IA": Objek akan ditransfer ke S3 Standard-IA setelah 30 hari.

    • "Days": 180, "StorageClass": "GLACIER_DEEP_ARCHIVE": Objek akan ditransfer ke S3 Glacier Deep Archive setelah 180 hari (dihitung dari tanggal pembuatan objek, bukan dari transisi sebelumnya).

    • "Expiration": { "Days": 3650 }: Objek akan dihapus permanen setelah 3650 hari (10 tahun), yang penting untuk kepatuhan dan biaya.


     

    Kesimpulan: Keputusan yang Fleksibel

     

    Meskipun S3 memungkinkan direct upload ke hampir semua kelas (termasuk S3 Glacier Deep Archive), praktik terbaik yang didukung oleh konfigurasi S3 adalah menggunakan S3 Lifecycle Management.

    Pilih Direct Upload (Langkah Langsung): Jika Anda memiliki data yang dijamin tidak akan diakses, dan Anda menghemat waktu konfigurasi.

    Pilih Lifecycle Management (Langkah demi Langkah): Jika Anda ingin otomatisasi biaya dan memastikan bahwa data yang lebih baru tetap tersedia secara instan (S3 Standard) sebelum dipindahkan ke penyimpanan yang lebih hemat biaya (S3 GDA) seiring dengan bertambahnya usia data. Ini adalah cara yang paling cerdas dan paling hemat biaya untuk menggunakan S3.

Share the Post:

Related Posts