Get Back OpenStack Instances State after Host Reboot

Pernah gak ngalamin node Compute reboot? baik disengaja maupun tidak, lalu semua Instances OpenStack di dalamnya statusnya berubah jadi SHUTOFF dan kita mesti start atau sesuaikan state-nya secara manual 😀 mungkin masalah yang kalian alami sama, yaitu belum mengaktifkan opsi ini di konfigurasi Nova

Lalu bagaimana agar state Instances kembali menjadi sediakala sebelum host Compute direboot, cukup aktifkan opsi ini

Setelah itu muat ulang services Nova

Uji coba, cek uptime dan list Instances OpenStack untuk mengetahui state awal

Selanjutnya, coba reboot node Compute dan cek Instances kalian kembali

Sekian dan Terima kasih

Mengamankan SSH dengan Google Authenticator – openSUSE Leap 15

Bagi saya, akses SSH ke Jump server, Jump host atau Jumpbox menggunakan Public Key adalah mandatori, kali ini saya akan menambahkan Multi-factor Authentication (MFA) untuk akses SSH ke Jump server saya. Berikut langkah-langkahnya:

1. Pasang Repositori

2. Pasang paket Google Authenticator

3. Jalankan Google Authenticator

Scan barcode atau masukan Your new secret key ke aplikasi Google Authenticator

4. Sunting berkas Konfigurasi SSH

5. Disable common-auth dan tambahkan auth google

6. Muat ulang layanan SSH

7. Ujicoba SSH ke Jump server

Sekarang kalian akan dimintai kode Google Authenticator setiap kali Anda mencoba masuk melalui SSH.

Sekian dan Terima kasih

Monitoring OpenStack Instances with Service Discovery Prometheus + Grafana

Selain bisa mendefine target secara static, Prometheus juga mendukung konfigurasi secara dynamically menggunakan service discovery.
Salah satunya Prometheus dapat melakukan query ke Nova API untuk me-list seluruh Instances di OpenStack sebagai target untuk dimonitoring.

Kebutuhan:
Prometheus
Grafana
Node Exporter
OpenStack RC / Credential

Langkah-langkah:

I. Prometheus Server

1. Update server dan pasang paket pendukung

2. Unduh Prometheus Server

3. Sunting berkas konfigurasi, sesuaikan konfigurasi yang diinginkan

4. Verifikasi berkas config Prometheus server pastikan SUCCESS

5. Jalankan Prometheus server sebagai service

6. Jalankan service Prometheus Server

7. Verifikasi bahwa service Prometheus sudah berjalan

II. Grafana
1. Pasang Grafana

2. Jalankan service Grafana

3. Akses Grafana Dashboard http://ip-server:3000

– Login dengan usename dan passsword admin/admin
– Klik 'Add Datasource'
– Name: Prometheus, Type: Prometheus
– Http settings: http://localhost:9090
– Klik 'Save and Test'.
Pastikan hasilnya 'success' dan 'datasource added'

4. Buat dashboard atau bisa juga unduh di https://grafana.com/dashboards sesuai dengan kebutuhan anda, sebagai contoh:

III. Node Exporter

1. Pasang Node Exporter ditiap Instance yang ingin anda monitoring

Sekarang saat ada Instances baru anda hanya perlu memasang atau menambahkan Node Exporter (bisa juga dipasang waktu create Instance di Customization Script) dan secara otomatis Prometheus server akan men-scrapenya dan viola! seluruh Instances bisa dimonitoring di dashboard Grafana sekarang 😀


Referensi:
https://medium.com/@pasquier.simon/monitoring-your-openstack-instances-with-prometheus-a7ff4324db6c

Enable Soft Delete to Recover Deleted Instances OpenStack

Ubah konfigurasi Nova di node Controller dan semua node Compute

Cari nilai reclaim_instance_interval

Ubah nilainya sesuai yang diinginkan misal ingin menahan Instance agar tidak dihapus secara permanent selama 1 hari (24 jam x 3600 = 86400 detik) berarti disi

Muat ulang service Nova compute dan API

List Instance

Ujicoba hapus Instance

Cek List instance yang sudah di Hapus, jika kita aktifkan Soft Delete maka statusnya akan menjadi SOFT_DELETE sampai batas waktu yang sudah kita tentukan akan berubah menjadi DELETED

Ujicoba Restore Instance

Lalu bagaimana jika kita ingin segera memakai resource kita tanpa menunggu 1 hari? bisa gunakan perintah

Sekian dan Terima kasih!

Failover using VRRP Keepalived

Requirements:

  • 2 Server atau lebih dalam 1 jaringan yang sama
  • 1 Virtual IP (VIP)

Disini saya menggunakan 3 Server Ubuntu 16.04 dan HAProxy dibelakangnya:
node1 = 10.0.0.5
node2 = 10.0.0.6
node3 = 10.0.0.7
VIP = 10.0.0.200

Langsung saja berikut cara Failover menggunakan VRRP (Virtual Router Redundancy Protocol) sebagai berikut

Pasang paket Keepalived disemua node

Buat Konfigurasi Keepalived disemua node

Sesuaikan bagian:
interface (interface yang digunakan untuk failover)
priority (prioritas masing-masing node)
unicast_src_ip (IP node tersebut)
unicast_peer (IP node lainnya)

Muat ulang servis Keepalived

Verifikasi disemua node:

Test Failover
~ Matikan node yang saat ini menempel VIP
~ Pantau konfigurasi IP di node lainnya dengan perintah

Sekian.