Perusahaan minyak dapat memanfaatkan tenaga super komputer jarak jauh untuk menangani masalah seperti penempatan peralatan dan pembersihan tumpahan minyak.

Perusahaan minyak dapat memanfaatkan tenaga super komputer jarak jauh untuk menangani masalah seperti penempatan peralatan dan pembersihan tumpahan minyak.

Selama beberapa dekade, industri telah menggunakan komputer untuk memaksimalkan keuntungan dan meminimalisasi dampak lingkungan, begitulah penjelasan Tahsin Kurc, asisten profesor informatika biomedik di Ohio State University.

Biasanya, perusahaan melakukan pengukuran seismik reservoir minyak dan mensimulasikan skenario pengeboran dalam komputer lokal. Sekarang Kurc dan rekan-rekannya membuat sistem software dan teknik yang terkait agar super komputer di lokasi yang berbeda membagi beban kerjanya. Sistem menjalankan simulasi lebih cepat dan jauh lebih detail – dan memungkinkan analisis data dalam jumlah banyak.

Para ilmuwan menggunakan peralatan dan teknik yang sama seperti yang biasa menghubungkan computing resources dalam penelitian biomedik. Apakah mereka bekerja dengan gambar dari mikroskop digital atau mesin MRI, fokusnya hanya untuk membuat sistem software yang akan menarik informasi penting dari data yang tersedia.

Dari sudut pandang itu, sebuah peta seismik dari sebuah lapangan minyak tidak terlalu berbeda dengan pemindaian otak, kata Kurc. Keduanya melibatkan analisis banyak data yang kompleks.

Di lapangan minyak, batu, air, minyak dan gas bercampur dalam kolam fluida bawah tanah yang sulit dilihat perbedaannya dari permukaan, dan pengukuran seismik tidak memberikan itu semua.

Sebelumnya perusahaan minyak harus memasangkan pengukuran tersebut pada model komputer sampai dapat menggunakan reservoir tersebut, sehingga dapat diprediksi dengan akurat outputnya untuk beberapa tahun mendatang. Dan mereka pun belum tentu yakin telah menggunakan model yang tepat untuk lapangan geologi khusus.

“Kita tidak akan pernah tahu secara pasti properties dari reservoir, sehingga harus melakukan beberapa tebakan,” kata Kurc. “Kita mempunyai banyak pilihan yang harus dilakukan, sehingga kita ingin melakukan banyak simulasi.”

Masalah yang sama timbul ketika perusahaan ingin meminimalisasi dampak lingkungan di sekitar reservoir, atau melacak jejak tumpahan minyak.

Tiap simulasi memerlukan berjam-jam bahkan berhari-hari di depan PC, dan menghasilkan puluhan gigabyte (jutaan byte) data. Perusahaan minyak harus menyederhanakan model komputer mereka untuk menangani data set yang sangat banyak.

Kurc dan rekannya di Ohio State – Joel Saltz, profesor dan Kepala Departemen Informatika Biomedik, asisten profesor Umit Catalyurek, research programmer Benjamin Rutt dan mahasiswa (lulusan) Xi Zhang – memungkinkan teknologi menyebarluaskan data sekitar super komputer di institusi berbeda. Dalam terbitan baru Journal Concurrency and Computation: Practice and Experience, mereka menjelaskan program software bernama DataCutter yang membagi tugas analisis data di antara sistem jaringan komputer.

Proyek ini merupakan bagian dari kolaborasi yang lebih besar antar peneliti di University of Texas di Austin, Oregon State University, University of Maryland, dan Rutgers University. Institusi-institusi ini bergabung untuk memanfaatkan TeraGrid network, yang menghubungkan pusat super komputer di seluruh negeri untuk studi skala besar.

Program seperti DataCutter dinamai “middleware,” karena dapat menghubungkan komponen software yang berbeda. Tujuannya, kata Kurc, untuk mendesain middleware yang bekerja dengan aplikasi yang rentangnya lebar.

“Kami mencoba untuk muncul dengan commonalities antara aplikasi di kelasnya,”katanya. “Apakah mereka memiliki cara yang sama dalam menyangsikan data, misalnya? Lalu kami mengembangkan algoritma dan peralatan yang akan mendukung commonality.”

DataCutter mengkoordinasikan bagaimana data diproses dalam jaringan, dan menyaring data untuk pengguna akhir.

Para peneliti menguji DataCutter dengan program simulasi lapangan minyak yang dikembangkan di University of Texas di Austin. Mereka menjalankan tiga simulasi berbeda atas TeraGrid: satu untuk menilai nilai ekonomis lapangan minyak, satu untuk menempatkan bypassed oil, dan satu untuk mengevaluasi strategi produksi yang berbeda – seperti penempatan pompa dan outlet dalam sebuah lapangan minyak.

Sumber data berasal dari simulasi berdasarkan studi lapangan minyak di University of Texas di Austin. Data tersebut dan output data dari simulasi disebarluaskan melalui tiga tempat: San Diego Supercomputer Center, University of Maryland, dan Ohio State.

Menggunakan komputer terdistribusi, maka akan dapoat mengurangi waktu pengerjaan simulasi, hitungan hari menjadi jam, dan dari hitungan jam ke menit. Tetapi, Kurc merasa bukan hanya kecepatan yang menjadi keuntungan yang akan diperoleh perusahaan minyak. Selain itu juga dapat mengakses model dan data set geologi di institusi member, yang dapat meningkatkan akurasi simulasi.

The National Science Foundation mendanai proyek ini agar bisa digunakan publik, produk software open-source untuk industri dan akademisi, sehingga pengguna yang potensial bisa men-download software melalui open source license dan menggunakannya dalam proyek mereka.(YS)

Sumber : www.newswise.com