Dua Pendekatan Utama Penggunaan Kelas Penyimpanan
Pada dasarnya, ada dua cara untuk menempatkan objek Anda ke dalam kelas penyimpanan S3, termasuk kelas arsip dingin seperti S3 Glacier Deep Archive (S3 GDA):
1. Pendekatan Upload Langsung (Direct Upload)
Anda dapat menentukan kelas penyimpanan data saat pertama kali mengunggah objek ke bucket S3.
Ketentuan dan Implementasi:
Implementasi: Saat mengunggah objek menggunakan AWS CLI, SDK, atau Console, Anda menyertakan header
x-amz-storage-classyang menentukan kelas target.Contoh AWS CLI: Untuk langsung mengunggah sebuah file ke S3 Glacier Deep Archive:
**aws s3 cp** dokumen-arsip.zip **s3://nama-bucket/arsip/** \
**--storage-class DEEP_ARCHIVE**
Command
--storage-class DEEP_ARCHIVEadalah command yang menentukan kelas penyimpanan target.Kapan Digunakan:
Jika Anda tahu pasti bahwa data tersebut adalah arsip permanen yang tidak akan pernah diakses dalam waktu dekat (misalnya, data kepatuhan regulasi tahunan).
Untuk data yang diunggah secara manual dan berjumlah kecil.
Kelemahan Direct Upload:
Tidak Efisien untuk Data Baru: Jika data awalnya digunakan secara aktif, tetapi Anda langsung mengunggahnya ke S3 GDA, Anda tidak bisa langsung mengaksesnya. Pengambilan data dari S3 GDA membutuhkan waktu berjam-jam dan dikenakan biaya pengambilan (retrieval) yang spesifik.
Memerlukan Perubahan Kode: Pendekatan ini membutuhkan penyesuaian di sisi aplikasi atau script upload Anda.
2. Pendekatan Transisi Otomatis (S3 Lifecycle Management)
Pendekatan ini adalah metode terbaik, paling hemat biaya, dan paling sering digunakan di lingkungan enterprise. Ini melibatkan penempatan data di kelas yang lebih mahal (hot storage) dan kemudian secara otomatis memindahkannya ke kelas yang lebih murah (cold storage) seiring berjalannya waktu.
Cara Kerja Lifecycle Management:
Mulai di S3 Standard: Data (misalnya, log file atau unggahan pengguna) diunggah pertama kali ke S3 Standard atau S3 Intelligent-Tiering.
Konfigurasi Aturan: Anda mengatur Lifecycle Rules pada bucket Anda. Aturan ini menentukan kapan data harus bergerak dan ke mana.
Transisi Otomatis: Setelah jumlah hari yang ditentukan (misalnya, 30 hari), S3 secara otomatis memindahkan data ke kelas yang lebih dingin, mengoptimalkan biaya penyimpanan tanpa intervensi manusia.
Contoh Alur Transisi yang Ideal (Step-by-Step):
Ini adalah alur step-by-step yang paling umum untuk mencapai efisiensi biaya maksimum, terutama untuk data yang bersifat log atau backup:
| Tahap | Kelas Penyimpanan | Tujuan | Transisi Setelah |
| Akses Aktif (Hot) | S3 Standard | Ketersediaan sangat tinggi dan latensi rendah. | 30 Hari |
| Akses Jarang (Cool) | S3 Standard-IA | Biaya lebih rendah; siap jika sewaktu-waktu dibutuhkan. | 90 Hari |
| Arsip Segera (Cold) | S3 Glacier Instant Retrieval | Biaya sangat rendah; dapat diakses dalam milidetik. | 1 Tahun (365 Hari) |
| Arsip Permanen (Deep Cold) | S3 Glacier Deep Archive | Biaya terendah; hanya diakses 1-2 kali per dekade. | 5 Tahun (1825 Hari) |
Manfaat Transisi Otomatis:
Optimasi Biaya: Anda hanya membayar tarif tertinggi (S3 Standard) selama data Anda benar-benar aktif. Setelah itu, biaya penyimpanan turun drastis.
Kepastian Kepatuhan: Memastikan data yang sudah lama tersimpan secara otomatis dan aman sesuai dengan kebijakan retensi.
Tanpa Perubahan Kode: Aplikasi Anda selalu mengunggah ke S3 Standard; logika transisi ditangani sepenuhnya oleh AWS.
Konfigurasi S3 Lifecycle Rule (Wajib)
Untuk mengotomatisasi proses step-by-step ini, Anda harus membuat dan menerapkan Lifecycle Rule ke bucket Anda. Aturan ini didefinisikan dalam format JSON dan dikelola melalui Console S3.
Berikut adalah contoh snippet JSON untuk sebuah Lifecycle Rule yang mengimplementasikan alur step-by-step di atas (dari S3 Standard ke S3 Standard-IA, lalu ke S3 GDA):
{
"Rules": [
{
"ID": "**Transition-to-Deep-Archive-Flow**",
"Status": "**Enabled**",
"Filter": {
"Prefix": "**logs/**"
},
"Transitions": [
{
"Days": **30**,
"StorageClass": "**STANDARD_IA**"
},
{
"Days": **180**,
"StorageClass": "**GLACIER_DEEP_ARCHIVE**"
}
],
"Expiration": {
"Days": **3650** }
}
]
}
Penjelasan Kode:
"Prefix": "logs/**": Aturan ini hanya berlaku untuk objek yang berada di folderlogs/."Days": 30, "StorageClass": "STANDARD_IA": Objek akan ditransfer ke S3 Standard-IA setelah 30 hari."Days": 180, "StorageClass": "GLACIER_DEEP_ARCHIVE": Objek akan ditransfer ke S3 Glacier Deep Archive setelah 180 hari (dihitung dari tanggal pembuatan objek, bukan dari transisi sebelumnya)."Expiration": { "Days": 3650 }: Objek akan dihapus permanen setelah 3650 hari (10 tahun), yang penting untuk kepatuhan dan biaya.
Kesimpulan: Keputusan yang Fleksibel
Meskipun S3 memungkinkan direct upload ke hampir semua kelas (termasuk S3 Glacier Deep Archive), praktik terbaik yang didukung oleh konfigurasi S3 adalah menggunakan S3 Lifecycle Management.
Pilih Direct Upload (Langkah Langsung): Jika Anda memiliki data yang dijamin tidak akan diakses, dan Anda menghemat waktu konfigurasi.
Pilih Lifecycle Management (Langkah demi Langkah): Jika Anda ingin otomatisasi biaya dan memastikan bahwa data yang lebih baru tetap tersedia secara instan (S3 Standard) sebelum dipindahkan ke penyimpanan yang lebih hemat biaya (S3 GDA) seiring dengan bertambahnya usia data. Ini adalah cara yang paling cerdas dan paling hemat biaya untuk menggunakan S3.

