Mengetahui Lebih Jauh Mengenai Superkomputer, Komputer Dengan Tingkat Kinerja Komputasi Tinggi

Kamu pasti sudah sering menggunakan komputer. Entah itu saat dirumah ataupun saat tengah praktikum pelajaran TIK di kampus ataupun di sekolah, kamu pasti sudah tidak asing lagi dengan komputer. Namun, pernahkah kamu mendengar tentang istilah Superkomputer? Superkomputer sering dijuluki sebagai pemimpin para komputer yang biasanya sehari-hari kamu gunakan. Nah, kali ini saya akan menjelaskan mengenai superkomputer tersebut. Penasaran? Langsung saja lihat penjelasannya dibawah ini.

Sebuah superkomputer adalah komputer dengan tingkat kinerja komputasi yang tinggi dibandingkan komputer umum. Kinerja superkomputer diukur dalam operasi floating-point per detik (FLOPS), bukan juta instruksi per detik (MIPS). Pada 2017, ada superkomputer yang dapat melakukan hingga hampir seratus kuadriliun FLOPS, yang diukur dalam P (eta) FLOPS. Mayoritas superkomputer saat ini menjalankan sistem operasi berbasis Linux.

Supercomputers memainkan peran penting dalam bidang ilmu komputasi dan digunakan untuk berbagai macam tugas komputasi intensif di berbagai bidang, termasuk mekanika kuantum, peramalan cuaca, penelitian iklim, eksplorasi minyak dan gas bumi, pemodelan molekul (komputasi struktur dan sifat senyawa kimia, makromolekul biologis, polimer, dan kristal), dan simulasi fisik (seperti simulasi momen awal alam semesta, aerodinamika pesawat terbang dan pesawat ruang angkasa, peledakan senjata nuklir, dan fusi nuklir). Sepanjang sejarah mereka, mereka sangat penting dalam bidang kriptanalisis.

Supercomputers diperkenalkan pada tahun 1960an dan selama beberapa dekade, yang tercepat dibuat oleh Seymour Cray di Control Data Corporation (CDC), Cray Research dan perusahaan berikutnya dengan nama atau monogramnya. Mesin-mesin pertama adalah desain konvensional yang sangat disetel yang berlari lebih cepat daripada sezaman mereka yang lebih umum. Melalui tahun 1960an, mereka mulai menambahkan peningkatan jumlah paralelisme dengan satu sampai empat prosesor yang khas. Dari tahun 1970an, konsep komputasi vektor dengan unit matematika khusus yang beroperasi pada kumpulan data yang besar mendominasi. Contoh penting adalah Cray-1 yang sangat sukses pada tahun 1976. Komputer vektor tetap menjadi desain dominan pada tahun 1990an. Sejak saat itu hingga hari ini, superkomputer berskala besar dengan puluhan ribu prosesor off-the-shelf menjadi norma.

AS telah lama menjadi pemimpin di bidang superkomputer, pertama melalui dominasi Cray yang nyaris tidak terganggu di lapangan, dan kemudian melalui berbagai perusahaan teknologi. Jepang membuat langkah besar di lapangan pada tahun 1980an dan 90an, namun sejak saat itu China semakin penting. Pada Juni 2016, superkomputer tercepat di daftar superkomputer TOP500 adalah Sunway TaihuLight, di China, dengan skor benchmark LINPACK 93 PFLOPS, melebihi pemegang rekor sebelumnya, Tianhe-2, sekitar 59 PFLOPS. Kemunculan Sunway TaihuLight juga terkenal karena penggunaan keripik pribumi dan merupakan komputer China pertama yang masuk dalam daftar TOP500 tanpa menggunakan perangkat keras dari Amerika Serikat. Pada Juni 2016, Cina, untuk pertama kalinya, memiliki lebih banyak komputer (167) dalam daftar TOP500 daripada Amerika Serikat (165). Namun, komputer buatan AS memegang sepuluh dari 20 posisi teratas pada bulan November 2016, A.S. memiliki lima dari 10 besar dan China dua, sebenarnya dua teratas.

Sejarah

Sejarah supercomputing kembali ke tahun 1960an, dengan Atlas di University of Manchester. IBM 7030 Stretch dan serangkaian komputer di Control Data Corporation (CDC), dirancang oleh Seymour Cray. Ini menggunakan desain dan paralelisme inovatif untuk mencapai kinerja puncak komputasi yang superior.

Atlas adalah perusahaan patungan antara Ferranti dan Universitas Manchester dan dirancang untuk beroperasi pada kecepatan pemrosesan mendekati satu mikrodetik per instruksi, sekitar satu juta instruksi per detik. Atlas pertama secara resmi ditugaskan pada tanggal 7 Desember 1962 sebagai salah satu superkomputer pertama di dunia yang dianggap sebagai komputer paling kuat di dunia pada saat itu dengan selisih yang cukup besar dan setara dengan empat IBM 7094.

Untuk CDC 6600 (yang dirancang Cray) yang diluncurkan pada tahun 1964, sebuah peralihan dari penggunaan transistor germanium ke silikon diimplementasikan, karena dapat berjalan sangat cepat, memecahkan masalah terlalu panas dengan memperkenalkan pendinginan, dan membantu membuatnya menjadi yang tercepat di Dunia. Mengingat bahwa 6600 mengungguli semua komputer kontemporer lainnya sekitar 10 kali, ia dijuluki sebuah superkomputer dan mendefinisikan pasar superkomputer, ketika seratus komputer terjual dengan harga $ 8 juta.

Cray meninggalkan CDC pada tahun 1972 untuk membentuk perusahaannya sendiri, Cray Research. Empat tahun setelah meninggalkan CDC, Cray menyerahkan Cray 1 MHz pada tahun 1976, dan menjadi salah satu superkomputer paling sukses sepanjang sejarah. Cray-2 yang dilepaskan pada tahun 1985 adalah sebuah komputer dengan cairan prosesor 8 prosesor dan Fluorinert dipompa melewatinya saat dioperasikan. Ini dilakukan pada 1,9 gigaFLOPS dan tercepat kedua di dunia setelah supercomputer M-13 di Moskow.

Pada tahun 1982, Sistem Grafis Komputer LINKS-1 di Osaka University menggunakan arsitektur pemrosesan paralel yang besar, dengan 514 mikroprosesor, termasuk 257 prosesor kontrol Zilog Z8001 dan prosesor floating-point 257 iAPX 86/20. Ini terutama digunakan untuk rendering grafis komputer 3D yang realistis.

Sementara superkomputer pada tahun 1980an hanya menggunakan beberapa prosesor, pada tahun 1990an, mesin dengan ribuan prosesor mulai muncul di Jepang dan Amerika Serikat, yang menetapkan catatan kinerja komputasi baru. Fujitsu’s Numerical Wind Tunnel superkomputer menggunakan 166 prosesor vektor untuk mendapatkan posisi teratas pada tahun 1994 dengan kecepatan puncak 1,7 gigaFLOPS (GFLOPS) per prosesor.

Hitachi SR2201 memperoleh kinerja puncak 600 GFLOPS pada tahun 1996 dengan menggunakan prosesor 2048 yang terhubung melalui jaringan palang tiga dimensi yang cepat. Intel Paragon bisa memiliki 1000 sampai 4000 prosesor Intel i860 dalam berbagai konfigurasi, dan berada di peringkat tercepat di dunia pada tahun 1993. Paragon adalah mesin MIMD yang menghubungkan prosesor melalui mesh dua dimensi berkecepatan tinggi, yang memungkinkan proses untuk dijalankan pada node yang terpisah, berkomunikasi melalui Message Passing Interface.

Perangkat Keras dan Arsitektur

Pendekatan arsitektur superkomputer telah mengalami perubahan dramatis sejak sistem paling awal diperkenalkan pada tahun 1960an.

Mesin Awal, Sederhana Tapi Cepat

Arsitektur superkomputer awal yang dipelopori oleh Seymour Cray mengandalkan desain kompak dan paralelisme lokal untuk mencapai kinerja komputasi yang superior. Cray telah mencatat bahwa peningkatan kecepatan prosesor tidak banyak jika sistem lain juga tidak membaik, CPU akan berakhir menunggu lebih lama data tiba dari unit penyimpanan offboard. CDC 6600, superkomputer pertama yang diproduksi secara massal, memecahkan masalah ini dengan menyediakan sepuluh komputer sederhana yang satu-satunya tujuannya adalah untuk membaca dan menulis data dari dan ke memori utama, yang memungkinkan CPU berkonsentrasi hanya pada pemrosesan data. Ini membuat CPU utama dan sepuluh unit “PPU” lebih sederhana. Dengan demikian, mereka secara fisik lebih kecil dan mengurangi jumlah kabel antara berbagai bagian. Hal ini mengurangi penundaan sinyal listrik dan memungkinkan sistem berjalan pada kecepatan clock yang lebih tinggi. 6600 mengungguli semua mesin lain dengan rata-rata 10 kali saat diperkenalkan.

Tempat CDC 6600 sebagai komputer tercepat akhirnya digantikan oleh penggantinya, CDC 7600. Desain ini sangat mirip dengan 6600 di organisasi umum namun menambahkan pipeline instruksi untuk lebih meningkatkan kinerjanya. Secara umum, setiap instruksi komputer memerlukan beberapa langkah untuk diproses, pertama, instruksi dibaca dari memori, maka setiap data yang diperlukan yang mengacu pada baca, instruksi diproses, dan hasilnya ditulis kembali ke memori. Masing-masing langkah ini biasanya dilakukan dengan sirkuit terpisah. Di sebagian besar komputer awal, termasuk 6600, masing-masing langkah ini berjalan pada gilirannya, dan sementara satu unit saat ini masih aktif, perangkat keras yang menangani bagian lain dari proses ini adalah idle.

Pada 7600, begitu satu instruksi membersihkan unit tertentu, unit itu mulai memproses instruksi berikutnya. Meskipun setiap instruksi membutuhkan waktu yang sama untuk menyelesaikannya, ada beberapa instruksi yang diproses bersamaan, yang menawarkan kinerja keseluruhan yang jauh lebih baik. Ini, dikombinasikan dengan perbaikan dan perbaikan kemasan lebih lanjut dalam elektronik, membuat 7600 sekitar empat sampai sepuluh kali secepat 6600.

Desain Vektor

7600 itu dimaksudkan untuk diganti dengan CDC 8600, yang pada dasarnya berukuran 7600 inci di dalam sebuah kotak kecil. Namun, desain ini mengalami masalah yang sulit dan akhirnya dibatalkan pada tahun 1974 untuk mendukung desain CDC lainnya, CDC STAR-100. STAR pada dasarnya adalah versi yang disederhanakan dan lebih lambat dari 7600, namun dikombinasikan dengan sirkuit baru yang dapat dengan cepat memproses urutan instruksi matematika. Gagasan dasarnya mirip dengan pipa di 7600 namun sepenuhnya diarahkan ke matematika, dan secara teori, lebih cepat. Dalam prakteknya, STAR terbukti memiliki kinerja dunia nyata yang buruk, dan akhirnya hanya dua atau tiga yang dibangun.

Cray, sementara itu, telah meninggalkan CDC dan membentuk perusahaannya sendiri. Mengingat masalah dengan STAR, dia merancang versi perbaikan dari konsep dasar yang sama namun mengganti vektor berbasis STAR dengan yang ada di register besar. Menggabungkan ini dengan perbaikan kemasannya yang terkenal menghasilkan Cray-1. Ini sepenuhnya mengungguli setiap komputer di dunia, kecuali satu, dan pada akhirnya akan menjual sekitar 80 unit, menjadikannya salah satu sistem superkomputer paling sukses dalam sejarah. Melalui tahun 1970an, 80an dan 90an serangkaian mesin dari Cray semakin meningkat pada konsep dasar ini.

Konsep dasar penggunaan pipa yang didedikasikan untuk memproses unit data besar dikenal sebagai pemrosesan vektor, dan mendominasi medan superkomputer. Sejumlah perusahaan Jepang juga memasuki lapangan, menghasilkan konsep serupa di mesin yang jauh lebih kecil. Tiga jalur utama diproduksi oleh perusahaan-perusahaan ini, VP Fujitsu, seri Hitachi HITAC dan NEC SX, semuanya diumumkan pada awal tahun 1980an dan diperbarui terus sampai tahun 1990an. CDC berusaha masuk kembali ke pasar ini dengan ETA10 tapi ini tidak terlalu berhasil. Convex Computer mengambil rute lain, memperkenalkan serangkaian mesin vektor yang jauh lebih kecil yang ditujukan untuk bisnis yang lebih kecil.

Desain Paralel Secara Besar-besaran

Satu-satunya komputer yang secara serius menantang kinerja Cray-1 di tahun 1970an adalah ILLIAC IV. Mesin ini adalah contoh pertama yang direalisasikan dari komputer paralel besar yang sesungguhnya, di mana banyak prosesor bekerja sama untuk memecahkan berbagai bagian dari satu masalah besar. Berbeda dengan sistem vektor, yang dirancang untuk menjalankan satu aliran data secepat mungkin, dalam konsep ini, komputer malah memasukkan bagian data yang terpisah ke prosesor yang sama sekali berbeda dan kemudian mengkombinasikan hasilnya. Desain ILLIAC diselesaikan pada tahun 1966 dengan 256 prosesor dan menawarkan kecepatan hingga 1 GFLOPS, dibandingkan dengan puncak Cray-1 1970-an dari 250 MFLOPS.

Namun, masalah pembangunan menyebabkan hanya 64 prosesor yang sedang dibangun, dan sistem tidak dapat beroperasi lebih cepat dari sekitar 200 MFLOPS, sementara berada jauh lebih besar dan lebih kompleks daripada Cray. Masalah lain adalah menulis perangkat lunak untuk sistem itu sulit, dan mendapatkan kinerja puncak dari itu adalah masalah upaya serius.

Namun, keberhasilan parsial ILLIAC IV secara luas dipandang sebagai penunjuk jalan menuju masa depan superkomputer. Cray membantah hal ini, yang terkenal dengan mengatakan bahwa “Jika Anda membajak sebuah ladang, yang lebih baik Anda gunakan? Dua ekor sapi atau 1024 ayam yang kuat?” Tetapi pada awal tahun 1980an, beberapa tim mengerjakan rancangan paralel dengan ribuan prosesor, terutama Connection Machine (CM) yang dikembangkan dari penelitian di MIT. CM-1 menggunakan sebanyak 65.536 mikroprosesor kustom yang disederhanakan yang dihubungkan bersama dalam jaringan untuk berbagi data. Beberapa versi terbaru diikuti superkomputer CM-5 adalah komputer pemrosesan paralel besar yang mampu menghasilkan milyaran aritmatika per detik.

Pengembangan perangkat lunak tetap menjadi masalah, namun seri CM memicu penelitian yang cukup besar mengenai masalah ini. Desain serupa menggunakan perangkat keras khusus dibuat oleh banyak perusahaan, termasuk Evans & Sutherland ES-1, MasPar, nCUBE, Intel iPSC dan Goodyear MPP. Tetapi pada pertengahan 1990-an, kinerja CPU tujuan umum telah meningkat pesat sehingga sebuah superkomputer dapat dibangun dengan menggunakan mereka sebagai unit pemrosesan individual, alih-alih menggunakan chip khusus. Pada pergantian abad ke-21, desain yang menampilkan puluhan ribu komoditas CPU adalah norma, dengan mesin kemudian menambahkan unit grafis) ke dalam campuran.

Selama beberapa dekade, pengelolaan kerapatan panas tetap menjadi isu utama bagi kebanyakan superkomputer terpusat. Jumlah panas yang dihasilkan oleh sistem mungkin juga memiliki efek lain, misalnya, mengurangi masa pakai komponen sistem lainnya. Ada beragam pendekatan untuk pengelolaan panas, dari memompa Fluorinert melalui sistem, ke sistem pendingin udara cair hibrida atau pendinginan udara dengan suhu pengkondisian udara normal.

Sistem dengan jumlah besar prosesor umumnya mengambil satu dari dua jalur. Dalam pendekatan komputasi grid, kekuatan pemrosesan banyak komputer, yang diatur sebagai didistribusikan, beragam domain administratif, digunakan secara oportunis kapan pun komputer tersedia. Dalam pendekatan lain, sejumlah besar prosesor digunakan berdekatan satu sama lain, misalnya, di cluster komputer Dalam sistem paralel yang dipusatkan secara besar-besaran, kecepatan dan fleksibilitas interkoneksi menjadi sangat penting dan superkomputer modern menggunakan berbagai pendekatan mulai dari sistem Infiniband yang disempurnakan hingga tiga dimensi torus interkoneksi. Penggunaan prosesor multi-core dikombinasikan dengan sentralisasi adalah arah yang muncul, misalnya, seperti pada sistem Cyclops64.

Karena efisiensi kinerja dan efisiensi dari prosesor grafis tujuan umum (GPGPU) telah meningkat, sejumlah superkomputer petaFLOPS seperti Tianhe-I dan Nebula mulai mengandalkannya. Namun, sistem lain seperti komputer K terus menggunakan prosesor konvensional seperti desain berbasis SPARC dan penerapan keseluruhan GPGPU pada aplikasi komputasi berkinerja tinggi berkinerja tinggi telah menjadi bahan perdebatan, sementara GPGPU dapat disetel untuk mencetak dengan baik pada tolok ukur tertentu, penerapan keseluruhannya terhadap algoritma sehari-hari mungkin terbatas kecuali usaha signifikan dikeluarkan untuk menyempurnakan penerapannya. Namun, GPU mulai berkembang dan pada tahun 2012 superkomputer Jaguar ditransformasikan menjadi Titan oleh CPU perkuatan dengan GPU.

Komputer berperforma tinggi memiliki siklus hidup yang diharapkan sekitar tiga tahun sebelum memerlukan upgrade.

Sejumlah sistem “tujuan khusus” telah dirancang, didedikasikan untuk satu masalah. Hal ini memungkinkan penggunaan chip FPGA yang diprogram secara khusus atau bahkan ASIC biasa, yang memungkinkan rasio harga/kinerja yang lebih baik dengan mengorbankan generalitas. Contoh superkomputer tujuan khusus meliputi Belle, Deep Blue dan Hydra, untuk bermain catur, Pipa Gravitasi untuk astrofisika, MDGRAPE-3 untuk analisis dinamika molekul struktur protein dan Deep Crack, untuk memecahkan cipher DES.

Penggunaan Energi dan Pengelolaan Panas

Sebuah superkomputer khas mengkonsumsi sejumlah besar tenaga listrik, hampir semuanya diubah menjadi panas, membutuhkan pendinginan. Misalnya, Tianhe-1A mengkonsumsi listrik sebesar 4,04 megawatt (MW). Biaya untuk menyalakan dan mendinginkan sistem bisa jadi penting, misalnya, 4 MW di $ 0.10/kWh adalah $ 400 per jam atau sekitar $ 3,5 juta per tahun.

Manajemen panas adalah masalah utama dalam perangkat elektronik yang kompleks dan mempengaruhi sistem komputer yang kuat dengan berbagai cara. Kekuatan desain termal dan masalah disipasi daya CPU di superkomputer melampaui teknologi pendinginan komputer tradisional. Penghargaan superkomputer untuk komputasi hijau mencerminkan masalah ini.

Pengepakan ribuan prosesor bersama-sama pasti menghasilkan sejumlah besar kerapatan panas yang perlu ditangani. Cray 2 didinginkan dengan cairan, dan menggunakan fluorinert “air terjun pendinginan” yang dipaksa melalui modul di bawah tekanan. Namun, pendekatan pendinginan cairan yang terendam tidak praktis untuk sistem multi-kabinet yang berbasis pada prosesor off-the-shelf, dan di System X sistem pendingin khusus yang menggabungkan pendingin udara dengan pendingin cair dikembangkan bersamaan dengan perusahaan Liebert.

Dalam sistem Blue Gene, IBM sengaja menggunakan prosesor berdaya rendah untuk mengatasi kerapatan panas. IBM Power 775, dirilis pada tahun 2011, memiliki elemen yang sangat erat yang memerlukan pendinginan air. Sistem IBM Aquasar menggunakan pendingin air panas untuk mencapai efisiensi energi, air digunakan untuk memanaskan bangunan juga.

Efisiensi energi sistem komputer umumnya diukur dari segi “FLOPS per watt”. Pada tahun 2008, Roadrunner IBM beroperasi pada 3,76 MFLOPS/W. Pada bulan November 2010, Blue Gene/Q mencapai 1.684 MFLOPS/W. Pada bulan Juni 2011, 2 tempat teratas di daftar Green 500 ditempati oleh mesin Blue Gene di New York (yang mencapai 2097 MFLOPS/W) dengan cluster DEGIMA di Nagasaki menempati posisi ketiga dengan 1375 MFLOPS/W.

Karena kabel tembaga dapat mentransfer energi ke dalam superkomputer dengan kerapatan daya jauh lebih tinggi daripada udara paksa atau refrigeran yang beredar dapat membuang limbah panas, kemampuan sistem pendingin untuk menghilangkan panas limbah adalah faktor pembatas. Pada tahun 2015, banyak superkomputer yang ada memiliki kapasitas infrastruktur yang lebih banyak daripada permintaan puncak sebenarnya dari mesin perancang umumnya secara konservatif merancang infrastruktur daya dan pendinginan untuk menangani lebih dari sekadar daya puncak teoritis yang dikonsumsi oleh superkomputer. Desain untuk superkomputer masa depan terbatas pada daya kekuatan desain termal dari superkomputer secara keseluruhan, jumlah yang dapat ditangani oleh infrastruktur daya dan pendingin, agak lebih tinggi daripada konsumsi daya normal yang diharapkan, namun kurang dari konsumsi daya puncak teoritis dari perangkat keras elektronik.

Perangakat Lunak dan Manajemen Sistem

Sistem Operasi

Sejak akhir abad ke-20, sistem operasi superkomputer telah mengalami transformasi besar, berdasarkan perubahan arsitektur superkomputer. Sementara sistem operasi awal disesuaikan untuk setiap superkomputer untuk mendapatkan kecepatan, trennya telah beralih dari sistem operasi internal ke adaptasi perangkat lunak generik seperti Linux.

Karena superkomputer besar secara modern paralel biasanya memisahkan perhitungan dari layanan lain dengan menggunakan beberapa jenis nodus, mereka biasanya menjalankan sistem operasi yang berbeda pada node yang berbeda, mis. menggunakan kernel ringan kecil dan efisien seperti CNK atau CNL pada node penghitungan, namun sistem yang lebih besar seperti turunan Linux pada server dan I/O nodes.

Sementara dalam penjadwalan pekerjaan sistem komputer multi pengguna tradisional, pada dasarnya, adalah masalah tasking untuk pemrosesan dan sumber daya perifer, dalam sistem paralel secara besar-besaran, sistem manajemen pekerjaan perlu mengatur alokasi sumber daya komputasi dan komunikasi, serta dengan anggun menangani kegagalan perangkat keras yang tak terelakkan saat puluhan ribu prosesor hadir.

Meskipun kebanyakan superkomputer modern menggunakan sistem operasi Linux, masing-masing produsen memiliki turunan Linux-nya sendiri, dan tidak ada standar industri, sebagian karena fakta bahwa perbedaan dalam arsitektur perangkat keras memerlukan perubahan untuk mengoptimalkan sistem operasi ke setiap desain perangkat keras.

Perangkat Lunak dan Pesan Yang Lewat

Arsitektur paralel superkomputer sering mendikte penggunaan teknik pemrograman khusus untuk mengeksploitasi kecepatan mereka. Perangkat lunak untuk pemrosesan terdistribusi mencakup API standar seperti MPI dan PVM, VTL, dan solusi perangkat lunak berbasis sumber terbuka seperti Beowulf.

Dalam skenario yang paling umum, lingkungan seperti PVM dan MPI untuk cluster yang terhubung secara longgar dan OpenMP untuk mesin memori bersama yang dikoordinasikan dengan ketat digunakan. Usaha yang signifikan diperlukan untuk mengoptimalkan algoritma untuk karakteristik interkoneksi mesin yang akan dijalankan; Tujuannya adalah untuk mencegah salah satu CPU membuang-buang waktu menunggu data dari node lain. GPGPU memiliki ratusan core prosesor dan diprogram dengan menggunakan model pemrograman seperti CUDA atau OpenCL.

Selain itu, cukup sulit untuk melakukan debug dan uji program paralel. Teknik khusus perlu digunakan untuk pengujian dan debugging aplikasi semacam itu.

Terdistribusi Superkomputer

Pendekatan Oportunistik (Opportunistic approaches)

Opportunistic Supercomputing adalah bentuk komputasi grid jaringan dimana sebuah “komputer super virtual” dari banyak mesin komputasi sukarela yang digabungkan secara longgar melakukan tugas komputasi yang sangat besar. Komputasi grid telah diterapkan pada sejumlah masalah paralel memalukan berskala besar yang memerlukan skala kinerja superkomputasi. Namun, pendekatan grid dan cloud computing dasar yang mengandalkan komputasi sukarela tidak dapat menangani tugas superkomputer tradisional seperti simulasi dinamis fluida.

Sistem komputasi grid tercepat adalah proyek komputasi terdistribusi Folding@home. F@h melaporkan 101 PFLOPS kekuatan pemrosesan x86 Pada bulan Oktober 2016. Dari jumlah ini, lebih dari 100 PFLOPS disumbangkan oleh klien yang berjalan di berbagai GPU dan sisanya dari berbagai sistem CPU.

Platform BOINC menyelenggarakan sejumlah proyek komputasi terdistribusi. Pada Februari 2017, BOINC mencatat kekuatan pemrosesan lebih dari 166 PetaFLOPS melalui lebih dari 762 ribu komputer aktif (host) di jaringan.

Pada bulan Oktober 2016, distribusi Mersenne Prime yang didistribusikan oleh GIMPS mencapai sekitar 0.313 PFLOPS melalui lebih dari 1,3 juta komputer. Internet PrimeNet Server mendukung pendekatan komputasi grid GIMPS, salah satu proyek komputasi grid awal dan paling sukses, Sejak tahun 1997.

Pendekatan Kuasi-oportunistik (Quasi-opportunistic approaches)

Quasi-oportunistik superkomputer adalah bentuk komputasi terdistribusi dimana “komputer super virtual” dari banyak komputer yang menyebarkan geografis secara geografis melakukan tugas komputasi yang menuntut daya pemrosesan yang besar. Quasi-oportunistik superkompute bertujuan untuk memberikan kualitas layanan yang lebih tinggi daripada komputasi grid oportunistik dengan mencapai kontrol lebih besar atas penugasan tugas ke sumber daya terdistribusi dan penggunaan intelijen tentang ketersediaan dan keandalan sistem individual dalam jaringan superkomputer.

Namun, eksekusi terdistribusi oportunistik dari menuntut perangkat lunak komputasi paralel dalam grid harus dicapai melalui penerapan perjanjian alokasi grid-wise, subsistem alokasi bersama, mekanisme alokasi pengetahuan topologi komunikasi, pesan kesalahan yang melewati perpustakaan dan data pre-conditioning.

Pengukuran Kinerja

Kemampuan vs Kapasitas

Supercomputers umumnya bertujuan untuk memaksimalkan kemampuan komputasi daripada kapasitas komputasi. Kemampuan komputasi biasanya dianggap sebagai penggunaan daya komputasi maksimum untuk memecahkan satu masalah besar dalam waktu sesingkat-singkatnya. Seringkali sistem kemampuan mampu memecahkan masalah dengan ukuran atau kompleksitas yang tidak dimiliki komputer lain, misalnya, aplikasi simulasi cuaca yang sangat kompleks.

Komputasi kapasitas, sebaliknya, biasanya dianggap sebagai penggunaan daya komputasi hemat biaya yang efisien untuk memecahkan beberapa masalah yang agak besar atau banyak masalah kecil. Arsitektur yang memberi dukungan kepada banyak pengguna untuk tugas sehari-hari rutin mungkin memiliki banyak kapasitas, namun biasanya tidak dianggap sebagai superkomputer, karena mereka tidak menyelesaikan satu masalah yang sangat kompleks.

Metrik Kinerja

Secara umum, kecepatan superkomputer diukur dan diukur dalam “FLOPS” (Operasi Titik Bolak Per Second), dan bukan dalam bentuk “MIPS” (Juta Petunjuk Per Second), seperti halnya komputer umum. Pengukuran ini biasanya digunakan dengan awalan SI seperti tera-, digabungkan ke dalam singkatan “TFLOPS” (1012 FLOPS, teraflops terucapkan), atau peta-, digabungkan ke dalam singkatan “PFLOPS” (1015 FLOPS, petaflops yang diucapkan). “Petascale “superkomputer dapat memproses satu kuadran (1015) (1000 triliun) FLOPS. Exascale adalah kinerja komputasi dalam rentang exaFLOPS (EFLOPS). Sebuah EFLOPS adalah satu kilogram (1018) FLOPS (satu juta TFLOPS).

Tidak ada nomor tunggal yang dapat mencerminkan keseluruhan kinerja sistem komputer, namun tujuan benchmark Linpack adalah mendekati seberapa cepat komputer memecahkan masalah numerik dan banyak digunakan di industri ini. Pengukuran FLOPS baik dikutip berdasarkan kinerja floating point teoritis dari sebuah prosesor (berasal dari spesifikasi prosesor pabrik dan ditampilkan sebagai “Rpeak” dalam daftar TOP500) yang umumnya tidak dapat diraih saat menjalankan beban kerja nyata, atau throughput yang dapat dicapai, yang berasal dari Benchmark LINPACK dan ditampilkan sebagai “Rmax” dalam daftar TOP500.

Tolak ukur LINPACK biasanya melakukan dekomposisi LU pada matriks besar. Kinerja LINPACK memberikan beberapa indikasi kinerja untuk beberapa masalah di dunia nyata, namun tidak harus sesuai dengan persyaratan pemrosesan dari banyak beban kerja superkomputer lainnya, yang misalnya mungkin memerlukan lebih banyak bandwidth memori, atau mungkin memerlukan kinerja komputasi integer yang lebih baik, atau mungkin memerlukan kinerja tinggi I/O sistem untuk mencapai tingkat kinerja yang tinggi.

Daftar TOP 500

Sejak tahun 1993, superkomputer tercepat telah masuk dalam daftar TOP500 sesuai dengan hasil benchmark LINPACK mereka. Daftar tersebut tidak mengklaim tidak bias atau pasti, namun ini merupakan definisi superkomputer “tercepat” yang paling banyak dikutip saat ini.

Ini adalah daftar terbaru dari komputer yang muncul di bagian atas daftar TOP500, dan “Peak speed” diberikan sebagai rating “Rmax”.

Aplikasi

Tahapan aplikasi superkomputer dapat dirangkum dalam tabel berikut ini:

Komputer IBM Blue Gene/P telah digunakan untuk mensimulasikan sejumlah neuron buatan yang setara dengan sekitar satu persen korteks serebral manusia, yang mengandung 1,6 miliar neuron dengan sekitar 9 triliun sambungan. Kelompok penelitian yang sama juga berhasil menggunakan superkomputer untuk mensimulasikan sejumlah neuron buatan yang setara dengan keseluruhan otak tikus.

Peramalan cuaca modern juga mengandalkan superkomputer. Administrasi Kelautan dan Atmosfer Nasional menggunakan superkomputer untuk menghasilkan ratusan juta pengamatan untuk membantu membuat perkiraan cuaca lebih akurat.

Pada tahun 2011, tantangan dan kesulitan dalam mendorong amplop dalam superkomputer digarisbawahi oleh IBM mengabaikan proyek petascale Blue Waters.

Program Simulasi dan Komputasi Lanjutan saat ini menggunakan superkomputer untuk mempertahankan dan mensimulasikan persediaan nuklir Amerika Serikat.

Penggunaan Energi

Superkomputer berkinerja tinggi biasanya membutuhkan energi tinggi juga. Namun, Islandia mungkin menjadi patokan untuk masa depan dengan superkomputer zero-emission pertama di dunia. Terletak di Pusat Data Thor di Reykjavik, Islandia, superkomputer ini bergantung pada sumber yang dapat diperbaharui sepenuhnya karena kekuatannya daripada bahan bakar fosil. Iklim yang lebih dingin juga mengurangi kebutuhan pendinginan aktif, menjadikannya salah satu fasilitas terhijau di dunia.

Dalam Fiksi

Banyak penulis fiksi ilmiah telah menggambarkan superkomputer dalam pekerjaan mereka, baik sebelum maupun sesudah konstruksi historis komputer semacam itu. Sebagian besar fiksi tersebut berhubungan dengan hubungan manusia dengan komputer yang mereka bangun dan kemungkinan konflik akhirnya berkembang di antara keduanya. Beberapa skenario sifat ini muncul di halaman pengambilalihan AI.

Contoh superkomputer dalam fiksi termasuk Multivac, The Machine Stop, GLaDOS, The Evitable Conflict dan Vulcan’s Hammer.

Nah, itulah penjelasan mengenai superkomputer. Terima kasih telah membaca artikel ini. Semoga penjelasan diatas bisa bermanfaat atau setidaknya menambah wawasan kamu.