SEJARAH KOMPUTER GENERASI KETIGA III
(1963-1965)
Walaupun transistor dalam banyak hal mengungguli Tube
Vakum, namun Transistor menghasilkan panas yang cukup besar, yang dapat
berpotensi merusak bagian-bagian internal komputer. Batu Kuarsa (quartz rock)
menghilangkan masalah ini.
Walaupun transistor dalam banyak hal mengungguli Tube
Vakum, namun Transistor menghasilkan panas yang cukup besar, yang dapat
berpotensi merusak bagian-bagian internal komputer. Batu Kuarsa (quartz rock)
menghilangkan masalah ini.
Jack Kilby, seorang insinyur di Texas
Instrument, mengembangkan sirkuit terintegrasi (IC : integrated circuit) di
tahun 1958. IC mengkombinasikan tiga komponen elektronik dalam sebuah piringan
silikon kecil yang terbuat dari pasir kuarsa.
Para ilmuwan kemudian berhasil memasukkan lebih banyak
komponen-komponen ke dalam suatu chip tunggal yang disebut semikonduktor.
Hasilnya, komputer menjadi semakin kecil karena komponenkomponen dapat
dipadatkan dalam chip.
Kemajuan
komputer generasi ketiga lainnya adalah penggunaan sistem operasi (operating
system) yang memungkinkan mesin untuk menjalankan berbagai program yang berbeda
secara serentak dengan sebuah program utama yang memonitor dan mengkoordinasi
memori komputer.
Komputer
Generasi ketiga ditandai dengan munculnya sirkuit-sirkuit mini, yang berbentuk hybrid
integrated circuit. Pada sirkuit mini tersebut, transistor dan diode yang
terpisah diletakkan dalam satu tempat.
Beberapa ciri yang lain
dari generasi ini adalah adanya integrasi antara perangkat keras dan perangkat
lunak dan berorientasi ke komunikasi data dan penanganan lebih dari satu
operasi secara serempak.
Karakteristik generasi ketiga mulai terlihat jelas
ketika pada tahun 1964 IBM menciptakan sebuah komputer baru menggunakan IC yang
disebut dengan IBM S/360.
PEMROSESAN PARALEL
Pemrosesan
Paralel adalah komputasi dua atau lebih tugas pada waktu bersamaan dengan
tujuan untuk mempersingkat waktu penyelesaian tugas-tugas tersebut dengan cara
mengoptimalkan resource pada sistem komputer yang ada untuk mencapai tujuan
yang sama. Pemrosesan paralel dapat mempersingkat waktu ekseskusi suatu program
dengan cara membagi suatu program menjadi bagian-bagian yang lebih kecil yang
dapat dikerjakan pada masing-masing prossesor secara bersamaan.
Tujuan utama dari pemrosesan paralel adalah untuk meningkatkan performa komputasi. Semakin banyak hal yang bisa dilakukan secara bersamaan (dalam waktu yang sama), semakin banyak pekerjaan yang bisa diselesaikan. Analogi yang paling gampang adalah, bila anda dapat merebus air sambil memotong-motong bawang saat anda akan memasak, waktu yang anda butuhkan akan lebih sedikit dibandingkan bila anda mengerjakan hal tersebut secara berurutan (serial). Atau waktu yg anda butuhkan memotong bawang akan lebih sedikit jika anda kerjakan berdua.
Adapun proses kerja , pemrosesan paralel membagi beban kerja dan mendistribusikannya pada komputer-komputer lain yang terdapat dalam sistem untuk menyelesaikan suatu masalah. Sistem yang akan dibangun tidak akan menggunakan komputer yang didediikasikan secara khusus untuk keperluan pemrosesan paralel melainkan menggunakan komputer yang telah ada. Artinya, sistem ini nantinya akan terdiri dari sejumlah komputer dengan spesifikasi berbeda yang akan bekerjasama untuk menyelesaikan suatu masalah. Adapun tipe-tipe Paralelisme adalah sebagai berikut
1. Result Paralelisme
Result Paralelisme yang sering disebut sebagai Embarrassingly Parallel atau Perfect Paralel adalah tipe paralelisme dimana komputasinya dapat dibagi menjadi beberapa tugas independen yang mempunyai struktur sama. Data struktur suatu tugas dibagi menjadi beberapa bagian yang berstruktur sama. Contoh tugas yang bisa diselesaikan dengan Result Parallelism adalah Simulasi Montecarlo.
2. Specialist Paralelisme
Cara kerja Specialist Parallelisme adalah dengan mengerjakan beberapa tugas secara bersamaan pada prosesor yang berbeda . Setiap komputer mengerjakan tugas tertentu.
Contohnya penggunaanya adalah pada
simulasi pabrik kimia, satu prosesor mensimulasikan proses sebelum reaksi
kimia, satu prosesor mensimulasikan reaksi pada tahap awal, dan prosesor
lainnya mensimulasikan proses penyulingan hasil, dan seterusnya.
3. Agenda Paralelisme
3. Agenda Paralelisme
Tipe paralelisme ini mempunyai daftar yang harus dikerjakan oleh sistem komputer . Semua komputer yang terdapat pada sistem dapat mengakses daftar tersebut. Pada Model MW (Manager Worker) terdapat pengelompokan komputer menjadi dua yaitu :
a) Manager : bertugas memulai perhitungan, memonitor kemajuan tugas, melayani permintaan worker. User berkomunikasi dengan sistem komputer melalui komputer yang berfungsi sebagai manager ini.
b) Worker : mengerjakan tugas-tugas yang diberikan oleh manager.
Kerja komputer ini dimulai setelah ada perintah dari manager dan diakhiri oleh
manager.
Pesan Terdistribusi dan Lingkungan Pemrograman (Distributed Messaging and Programming Enviroment) hubungannya dengan pemrosesan paralel ialah pesan sebagai sesuatu ( objek ) pada pemrosesan itu sendiri sehingga kita harus mendeskripsikan pesan ( message ) itu .
Terdapat tiga metode untuk mengimplementasikan Inter-node parallelism yaitu :
a. Dengan cara membuat protokol komunikasi ad hoc level rendah. Contohnya dengan menggunakan socket interface.
Pesan Terdistribusi dan Lingkungan Pemrograman (Distributed Messaging and Programming Enviroment) hubungannya dengan pemrosesan paralel ialah pesan sebagai sesuatu ( objek ) pada pemrosesan itu sendiri sehingga kita harus mendeskripsikan pesan ( message ) itu .
Terdapat tiga metode untuk mengimplementasikan Inter-node parallelism yaitu :
a. Dengan cara membuat protokol komunikasi ad hoc level rendah. Contohnya dengan menggunakan socket interface.
b. Dengan menggunakan distributed communication library. Contohnya dengan menggunakan Message Passing Interface (MPI) library
c. Dengan memanfaatkan layer software dengan maksud untuk menyembunyikan interconnect dari programmer.
Setelah kita mengenal , komponen –
komponen dan tujuan dari pemrosesan paralel tersebut, kita beralih ke sistem
pemrosesan paralel dimana, sistem pemrosesan paralel adalah sekumpulan komputer
terhubung dan bekerjasama sebagai satu resource komputer yang terintegrasi
untuk menyelesaikan suatu tujuan. Sebuah sistem paralel setidaknya terdiri dari
Message Passing Interface (MPI) dan sebuah pengatur beban kerja (job scheduler)
.
Message
Passing Interface bertugas untuk mengirim data antar komputer di dalam sistem
paralel (biasanya disebut sebagai node atau host). Job scheduler seperti yang
tersirat dari namanya bertugas menerima tugas dari user dan menjadwalkan tugas
tersebut pada beberapa node didalam sistem parallel sesuai kebutuhan. Gambar A
memperlihatkan lapisan-lapisan pada arsitektur sistem paralel (LinuxSistem
paralels.com).
Detail Arsitektur Sistem parallel
MPI (Message Passing Interface) adalah sebuah mekanisme mengiriman instruksi dan data antara dua proses komputasi yang berbeda yang berada pada komputer berbeda pada sistem sistem paralel. Paket-paket yang mempunyai spesifikasi kebutuhan MPI telah banyak beredar di Internet dan telah dilengkapi dengan LAM/MPI [5] dan MPICH [6]. Paket-paket ini telah dilengkapi dengan fungsi-fungsi yang menggunakan library C dan Fortran.
Kemampuan
MPI digunakan untuk menginterpretasikan bahasa pemrograman matrik kemampuan
dynamic linking dari bahasa tersebut. Fungsi library dari paket MPI dapat
digabungkan dengan dynamic extension dengan cara menghubungkan bahasa
pemrograman tersebut dengan bahasa C, C++, atau FORTRAN.
Hal ini
telah dilakukan untuk menciptakan toolbox MPI (MPITB) untuk kebutuhan MATLAB,
dan bahasa pemrograman GNU Octave oleh Fernandez Baldomero . Pada makalah ini
digunakan MPITB dengan pertimbangan fungsionalitas dan kelengkapannya disamping
fakta bahwa MPITB dan GNU Octave adalah bebas digunakan bahkan untuk keperluan
komersial. Hal ini juga berarti bahwa source code-nya banyak beredar dan dapat
dimodifikasi sesuai kebutuhan.
Aplikasi Pemrosesan Paralel
Desain Jaringan
Secara garis besar, mekanisme pemberian layanan publik bagi user di luar jaringan adalah sebagai berikut:
a) User diluar jaringan diatas melakukan suatu request tugas, misalnya tracetest_example.m
b) Request diterima oleh Load balancer/Linux box untuk kemudian diolah dan dibagi menjadi proses yang relatif lebih kecil
c) Proses yang telah berukuran kecil
tersebut diolah oleh masing-masing node/slave untuk diselesaikan.
d) Setelah selesai melakukan tugasnya, node/slave mengirimkan kembali hasilnya ke Load balancer untuk kemudian disusun kembali.
d) Setelah selesai melakukan tugasnya, node/slave mengirimkan kembali hasilnya ke Load balancer untuk kemudian disusun kembali.
e) Hasilnya dikirimkan kembali ke
user.
4. ARSITEKTUR
KOMPUTER PARALEL
DANUKURAN KOMPLEKSITAS
Jumlah
data yang didapat dari pendeteksian keadaan cuaca, polusi udara dan unsurunsur
kimia lapisan bumi menunjukkan nilai rata-rata 1010 bit (binary digit) per
detik.
Sedangkan
dalam operasi kedokteran dengan bantuan scanner (penyinaran), penyajian grafik
rekonstruksi ruang dengan komputer baik dari data langsung yang didapat dari
pemotongan melintang suatu organ tubuh maupun dari data pemutaran koordinat
pada berbagai sudut pandang, minimal memerlukan kecepatan proses operasi hitung
sebesar 1015 kali per detik.
Kedua
contoh di atas mengungkapkan bahwa kita perlu merancang komputer cepat tipe
paralel guna memproses data dalam ukuran besar dan dalam waktu singkat untuk
berbagai bidang aplikasi, antara lain: kedokteran, klimatologi, penerbangan,
eksplorasi, hankam, astronomi dan lain sebagainya. Hal ini disebabkan komputer
sekuensial dipandang sangat terbatas kemampuannya untuk menyelesaikan
kasus-kasus seperti kedua contoh tersebut.
5. Arsitektur Komputer Parallel
Sesuai
taksonomi Flynn, seorang Designer Processor, Organisasi Prosesor dibagi
menjadi 4 :
A. SISD (Single Instruction Single Data Stream) Arus Instruksi Tunggal dan Data Tunggal
A. SISD (Single Instruction Single Data Stream) Arus Instruksi Tunggal dan Data Tunggal
B.
SIMD (Single Instruction Multiple Data Stream) Arus Instruksi Tunggal dan
Multiple Data
C.
MISD (Multiple Instruction Single Data Stream)
Arus
Multiple Instruksi dan Data Tunggal
D.
MIMD (Multiple Instruction Multiple Data Stream) Arus Multiple Instruksi dan
Multiple Data
2.1.1
Komputer SISD
Arsitektur
mesin komputer SISD (Single Instruction Single Data) dari model Von Neumann.
Jenis ini merupakan komputer sekuensial dengan ciri pokok hanya memiliki satu
prosesor (Schendel, 1984).
Skema
kerja prosesor menurut gambar tersebut menunjukkan bahwa kemampuan mesin
sekuensial dalam menjalankan eksekusi program, setiap operasi aritmatika
ataupun logika dilakukan dalam satu unit kalkulasi. Hal ini disebabkan dalam
setiap instruksi, mesin hanya mampu membaca data dalam sekali kerja. Oleh sebab
itu dapat disimpulkan bahwa penggunaan mesin ini pada bidang aplikasi sangat
terbatas, sebab kemampuan dari prosesornya terbatas. Contoh dari kelompok ini
adalah jenis personal komputer (PC) dan mini komputer.
2.1.2
Komputer SIMD
Arsitektur
mesin komputer SIMD (Single Instruction Multiple Data) dari jenis komputer
paralel. Dari skema dapat dicirikan bahwa tipe ini terdapat N prosesor yang
masing-masing prosesor dihubungkan dengan memori lokal sehingga data dan
program dapat disimpan. Selain itu semua prosesor dikendalikan oleh satu unit
kontrol (Knob, 1990).
Kemampuan
pokok yang dimiliki oleh mesin ini menunjukkan bahwa pada saat yang sama,
setiap prosesor mampu mengeksekusi instruksi-instruksi yang sama dari data yang
berbeda. Mesin yang dapat dimasukkan dalam tipe ini antara lain ILLIAC IV,
TAR-100, DRAY-1, STARAN IV dan ILC (memiliki 4096 prosesor).
2.1.3
Komputer MISD
Jenis yang
ketiga adalah komputer paralel MISD (Multiple Instruction Single Data). Dalam
gambar 1.c, mesin MISD memiliki satu unit memori. Kemampuan yang dimiliki untuk
mengeksekusi program menunjukkan bahwa pada setiap saat, satu data dari memori
dioperasikan oleh setiap prosesor menurut instruksi-instruksi dari setiap unit
kontrol. Jadi secara paralel, satu data yang sama dapat diproses oleh
prosesor-prosesor yang berlainan.
Secara
struktural, mesin ini nampak ekivalen dengan mesin SISD. Hanya karena memiliki
prosesor bebas lebih dari satu, maka mesin ini dapat dikatakan sebagai mesin
multi-prosesor yang kemampuannya relatif masih terbatas untuk digunakan di
bidang-bidang aplikasi.
2.1.4
Komputer MIMD
Model
komputer MIMD (Multiple Instruction Multiple Data) merupakan jenis komputer
paralel yang disajikan pada gambar 1.d. Mesin ini memiliki N prosesor bebas dan
masing-masing prosesor mempunyai satu unit kontrol, sehingga mesin ini dapat
kita sebut sebagai mesin multikomputer.
Ciri lain
yang ada pada mesin tersebut adalah prosesor-prosesornya saling bekerja sama
dalam unit Input-Output dan memori utama, sehingga mesin ini dapat
dikategorikan sebagai mesin multiprosesor.
Kemampuan
mesin MIMD menunjukkan bahwa pada setiat saat, secara serentak
prosesor-prosesor dapat menjalankan instruksi-instruksi yang berlainan secara
paralel. Dari model susunan prosesornya, dapat disimpulkan bahwa komputer
semacam ini dapat dimanfaatkan untuk aplikasi khusus guna memecahkan masalah
yang membutuhkan operasi-operasi resolusi tinggi dan sangat kompleks.
DAFTAR
PUSTAKA
·
PEMROSESAN PARALEL
Creel, Michael (2004), “ParallelKnoppix - Create a Linux Cluster for MPI Parallel Processing in 15 Minutes”, http://pareto.uab.es/mcreel/Parallel Knoppix/
Creel, Michael (2004), “ParallelKnoppix - Create a Linux Cluster for MPI Parallel Processing in 15 Minutes”, http://pareto.uab.es/mcreel/Parallel Knoppix/
·
Creel, Michael, 2004, Parallel-Knoppix –Rapid Creation of a
Linux Cluster for MPI
Parallel
Processing Using Non-Dedicated Computers, http://pareto.uab.es/mcreel/Parallel
Knoppix/
Fernández Baldomero, J. (2004), “LAM/MPI Parallel Computing under GNU Octave”, http://atc.ugr.es/javier-bin/mpitb.
Hidayat, Syarif. 2006.Pemrosesan Paralel menggunakan Komputer Heterogen.
Fernández Baldomero, J. (2004), “LAM/MPI Parallel Computing under GNU Octave”, http://atc.ugr.es/javier-bin/mpitb.
Hidayat, Syarif. 2006.Pemrosesan Paralel menggunakan Komputer Heterogen.
·
Kant, Chander, 2002, Introduction to Clusters, http://LinuxCluster.com.
LAM team (2004), “LAM/MPI Parallel Computing”, http://www.lam-mpi.org/
LAM team (2004), “LAM/MPI Parallel Computing”, http://www.lam-mpi.org/
·
Gropp, W., E. Lusk, N. Doss and A. Skjellum (1996), "A
high-performance, portable implementation of the MPI message passing interface
standard", Parallel Computing, p.22,p.789-828
·
Mateti, Prabhaker, 2005, “Cluster Computing with Linux”.
Wikipedia ( Ensiklopedi Bebas Berbahasa Indonesia ) http://id.wikipedia.org/wiki/Pemrograman_paralel.
Wikipedia ( Ensiklopedi Bebas Berbahasa Indonesia ) http://id.wikipedia.org/wiki/Pemrograman_paralel.
1 comments:
As claimed by Stanford Medical, It is indeed the SINGLE reason women in this country get to live 10 years more and weigh an average of 19 kilos less than we do.
(And realistically, it has absoloutely NOTHING to do with genetics or some secret-exercise and really, EVERYTHING to about "how" they eat.)
BTW, What I said is "HOW", not "what"...
TAP on this link to reveal if this little quiz can help you unlock your true weight loss possibilities
Post a Comment