<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel>
    <title>Forem: Nugroho Ardi Sutrisno</title>
    <description>The latest articles on Forem by Nugroho Ardi Sutrisno (@ardisaurus).</description>
    <link>https://forem.com/ardisaurus</link>
    <image>
      <url>https://media2.dev.to/dynamic/image/width=90,height=90,fit=cover,gravity=auto,format=auto/https:%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Fuser%2Fprofile_image%2F343086%2F5de8e835-a9f6-461c-979d-c948953efd29.jpg</url>
      <title>Forem: Nugroho Ardi Sutrisno</title>
      <link>https://forem.com/ardisaurus</link>
    </image>
    <atom:link rel="self" type="application/rss+xml" href="https://forem.com/feed/ardisaurus"/>
    <language>en</language>
    <item>
      <title>"Attention Is All You Need" Paper tahun 2017 yang mengubah dunia kecerdasan buatan, dijelaskan tanpa perlu latar belakang teknis.</title>
      <dc:creator>Nugroho Ardi Sutrisno</dc:creator>
      <pubDate>Fri, 10 Apr 2026 07:15:33 +0000</pubDate>
      <link>https://forem.com/ardisaurus/attention-is-all-you-need-paper-tahun-2017-yang-mengubah-dunia-kecerdasan-buatan-dijelaskan-593h</link>
      <guid>https://forem.com/ardisaurus/attention-is-all-you-need-paper-tahun-2017-yang-mengubah-dunia-kecerdasan-buatan-dijelaskan-593h</guid>
      <description>&lt;h2&gt;
  
  
  🌍 Mengapa paper ini begitu penting?
&lt;/h2&gt;

&lt;p&gt;Sebelum 2017, komputer sangat kesulitan memahami dan menghasilkan bahasa manusia. Para peneliti sudah mencoba berbagai pendekatan, tapi semuanya punya masalah mendasar.&lt;/p&gt;

&lt;p&gt;Lalu delapan peneliti Google menulis sebuah paper berjudul "Attention Is All You Need" — dan dunia AI tidak pernah sama lagi. Paper ini memperkenalkan arsitektur bernama Transformer, yang menjadi fondasi dari hampir semua AI bahasa modern:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;ChatGPT dan semua model GPT dari OpenAI&lt;/li&gt;
&lt;li&gt;Claude&lt;/li&gt;
&lt;li&gt;Gemini dari Google&lt;/li&gt;
&lt;li&gt;Google Translate versi modern&lt;/li&gt;
&lt;li&gt;Dan ratusan aplikasi AI lainnya&lt;/li&gt;
&lt;/ul&gt;

&lt;blockquote&gt;
&lt;p&gt;Analogi : Bayangkan sebelumnya orang mencoba membangun gedung pencakar langit menggunakan bata satu per satu dari bawah. Paper ini seperti menemukan baja dan beton bertulang — material baru yang jauh lebih kuat dan efisien.&lt;/p&gt;
&lt;/blockquote&gt;

&lt;h2&gt;
  
  
  😓 Masalah sebelum Transformer
&lt;/h2&gt;

&lt;p&gt;Untuk memahami solusinya, kita perlu tahu dulu apa masalahnya. Sebelum Transformer, model bahasa menggunakan arsitektur yang disebut RNNRecurrent Neural Network — jaringan saraf yang memproses kata satu per satu secara berurutan (Recurrent Neural Network).&lt;/p&gt;

&lt;p&gt;Bayangkan kamu membaca kalimat ini kata per kata, dan kamu hanya diizinkan mengingat satu catatan kecil yang terus kamu perbarui setiap membaca kata baru. Di akhir kalimat, kamu harus menjawab pertanyaan tentang kata yang ada di awal — tapi catatan kamu sudah berubah berkali-kali!&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F80604qatifrr87d3wlhp.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F80604qatifrr87d3wlhp.png" alt=" " width="727" height="245"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  🔍 Apa itu "Attention"?
&lt;/h2&gt;

&lt;p&gt;Konsep paling kunci dalam paper ini adalah mekanisme attention. Idenya intuitif: ketika kamu membaca sebuah kata, kamu secara alami memperhatikan kata-kata lain yang relevan untuk memahaminya.&lt;/p&gt;

&lt;blockquote&gt;
&lt;p&gt;Contoh Nyata : Dalam kalimat "Kucing itu duduk di atas matras karena ia lelah" — untuk memahami kata "ia", kamu secara otomatis melirik ke belakang dan menghubungkannya dengan "Kucing". Itulah persis yang dilakukan attention!&lt;/p&gt;
&lt;/blockquote&gt;

&lt;p&gt;Mekanisme attention memungkinkan model untuk melihat semua kata sekaligus dan menentukan kata mana yang paling relevan untuk memahami sebuah kata tertentu.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Rumus Attention (tidak perlu panik!)&lt;/strong&gt;&lt;br&gt;
Secara matematis, attention dihitung dengan rumus sederhana:&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fm4ixlkmv0h5zs13nwm6v.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fm4ixlkmv0h5zs13nwm6v.png" alt=" " width="755" height="122"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;Terjemahannya dalam bahasa manusia:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Q (Query) = "Apa yang sedang aku cari?"&lt;/li&gt;
&lt;li&gt;K (Key) = "Apa yang dimiliki setiap kata?"&lt;/li&gt;
&lt;li&gt;V (Value) = "Informasi apa yang ingin kubawa jika relevan?"&lt;/li&gt;
&lt;li&gt;Hitung seberapa cocok Query dengan setiap Key → dapat skor&lt;/li&gt;
&lt;li&gt;Gunakan skor itu untuk mengambil Value yang proporsional&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  🎯 Multi-Head Attention
&lt;/h2&gt;

&lt;p&gt;Satu mekanisme attention saja tidak cukup, karena setiap kata punya banyak aspek yang perlu diperhatikan secara bersamaan. Transformer menggunakan Multi-Head Attention — beberapa "kepala" attention yang bekerja paralel, masing-masing fokus pada aspek yang berbeda.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Kepala Sintaksis : Kepala ini fokus pada hubungan tata bahasa, subjek-predikat, kata sifat-kata benda. Seperti seorang ahli tata bahasa yang menganalisis struktur kalimat.&lt;/li&gt;
&lt;li&gt;Kepala Referensi : Kepala ini ahli mencari referensi kata ganti, menemukan bahwa "ia", "mereka", atau "itu" merujuk ke entitas mana. Sangat penting untuk pemahaman konteks.&lt;/li&gt;
&lt;li&gt;Kepala Kedekatan : Kepala ini memperhatikan kata-kata yang berdekatan secara posisi, frasa seperti "di atas", "sangat cepat", atau "meja kayu". Tangkap hubungan lokal.&lt;/li&gt;
&lt;li&gt;Kepala Semantik : Kepala ini fokus pada makna, menghubungkan kata-kata yang memiliki hubungan semantik seperti tindakan dengan pelakunya atau benda dengan sifatnya.&lt;/li&gt;
&lt;li&gt;Kepala Temporal : Kepala ini sensitif terhadap hubungan waktu dan urutan kejadian dalam teks kata kerja, kata keterangan waktu, dan kausalitas.&lt;/li&gt;
&lt;li&gt;Kepala Konteks : Kepala ini punya jangkauan luas, menghubungkan tema utama paragraph atau dokumen, menjaga koherensi global teks.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  🏗️ Arsitektur Transformer
&lt;/h2&gt;

&lt;p&gt;Transformer terdiri dari dua bagian besar: Encoder (pemahaman) dan Decoder (pembuatan). Untuk tugas terjemahan misalnya, encoder membaca bahasa sumber dan decoder menghasilkan terjemahannya.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;A. ENCODER&lt;/strong&gt;&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Encoder Self-Attention
Setiap kata dalam input memperhatikan semua kata lain di kalimat yang sama. Ini membangun pemahaman konteks yang kaya — "bank" dalam "bank sungai" vs "bank uang" akan berbeda representasinya.&lt;/li&gt;
&lt;li&gt;Feed-Forward
Proses tiap kata&lt;/li&gt;
&lt;li&gt;Layer Normalization
Normalisasi memastikan nilai tidak meledak atau mengecil saat data melewati banyak lapisan. Tanpa ini, training bisa tidak stabil. Juga ada "residual connections" (skip connections) yang membantu gradient mengalir.&lt;/li&gt;
&lt;li&gt;Output Encoder
Encoder menghasilkan representasi kontekstual yang kaya untuk setiap kata input. Bukan lagi sekadar "embeddings" statis, tapi representasi yang sudah memahami konteks penuh kalimat.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;&lt;strong&gt;B. DECODER&lt;/strong&gt;&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Masked Self-Attention
Kata yang sudah ada&lt;/li&gt;
&lt;li&gt;Cross-Attention — Jembatan Encoder↔Decoder
Bagian paling krusial! Decoder menggunakan output yang sedang dihasilkan sebagai Query dan seluruh output encoder sebagai Key+Value. Model secara eksplisit memilih bagian mana dari input yang relevan untuk setiap langkah decoding.&lt;/li&gt;
&lt;li&gt;Decoder Feed-Forward
Sama seperti encoder, lapisan ini memproses setiap posisi secara independen setelah informasi dari kedua attention layers digabungkan.&lt;/li&gt;
&lt;li&gt;Feed-forward
Proses gabungan info&lt;/li&gt;
&lt;li&gt;Softmax Output
Output akhir adalah distribusi probabilitas atas seluruh kosakata (bisa ratusan ribu kata!). Kata dengan probabilitas tertinggi dipilih, atau kita bisa "sampling" untuk variasi. Proses ini berulang sampai kalimat selesai.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F8yn40o8dzegb0onwn62c.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F8yn40o8dzegb0onwn62c.png" alt=" " width="649" height="445"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  📍 Positional Encoding
&lt;/h2&gt;

&lt;p&gt;Ada satu masalah kecil: karena Transformer memproses semua kata secara paralel (bukan berurutan), model tidak tahu kata mana yang datang pertama, kedua, atau ketiga. Ini seperti dikasih kartu yang sudah diacak — kamu tidak tahu urutannya!&lt;/p&gt;

&lt;p&gt;Solusinya: tambahkan informasi posisi ke setiap kata sebelum diproses. Paper ini menggunakan fungsi sinus dan cosinus untuk mengkodekan posisi ini.&lt;/p&gt;

&lt;blockquote&gt;
&lt;p&gt;Intuisi Sederhana Setiap posisi mendapat "cap" numerik yang unik, seperti nomor kursi di bioskop. Model belajar menggunakan cap ini untuk memahami urutan dan jarak antar kata.&lt;/p&gt;
&lt;/blockquote&gt;

&lt;h2&gt;
  
  
  📊 Hasil yang Menakjubkan
&lt;/h2&gt;

&lt;p&gt;Ketika paper ini pertama dirilis, hasilnya membuat komunitas riset terkejut. Transformer tidak hanya lebih baik — ia jauh lebih baik, dengan waktu training yang lebih singkat.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F2ibptl3701b6zirkh4ml.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F2ibptl3701b6zirkh4ml.png" alt=" " width="771" height="248"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  🎓 Apa yang sudah kita pelajari?
&lt;/h2&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fmnhgbmjjjgxfa09v2ubl.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fmnhgbmjjjgxfa09v2ubl.png" alt=" " width="760" height="617"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  📚 Mau belajar lebih lanjut?
&lt;/h2&gt;

&lt;p&gt;&lt;a href="https://arxiv.org/abs/1706.03762" rel="noopener noreferrer"&gt;Paper asli "Attention Is All You Need" (arXiv)&lt;/a&gt;&lt;br&gt;
&lt;a href="https://jalammar.github.io/illustrated-transformer/" rel="noopener noreferrer"&gt;The Illustrated Transformer — Jay Alammar (visualisasi cantik, bahasa Inggris)&lt;/a&gt;&lt;br&gt;
&lt;a href="https://www.youtube.com/watch?v=iDulhoQ2pro" rel="noopener noreferrer"&gt;Andrej Karpathy: Let's build GPT from scratch (YouTube)&lt;/a&gt;&lt;/p&gt;

</description>
      <category>ai</category>
      <category>llm</category>
      <category>machinelearning</category>
      <category>nlp</category>
    </item>
    <item>
      <title>Hipotesis Tiket Lotre: Penemuan Jaringan Saraf Jarang yang Dapat Dilatih dengan Efisien</title>
      <dc:creator>Nugroho Ardi Sutrisno</dc:creator>
      <pubDate>Sat, 14 Mar 2026 04:56:49 +0000</pubDate>
      <link>https://forem.com/ardisaurus/hipotesis-tiket-lotre-penemuan-jaringan-saraf-jarang-yang-dapat-dilatih-dengan-efisien-39cm</link>
      <guid>https://forem.com/ardisaurus/hipotesis-tiket-lotre-penemuan-jaringan-saraf-jarang-yang-dapat-dilatih-dengan-efisien-39cm</guid>
      <description>&lt;p&gt;&lt;strong&gt;Hipotesis Tiket Lotre&lt;/strong&gt; (Lottery Ticket Hypothesis) merupakan konsep revolusioner dalam bidang kecerdasan buatan, yang pertama kali diperkenalkan oleh Jonathan Frankle dan Michael Carbin pada tahun 2018. Konsep ini mengungkap potensi efisiensi luar biasa dalam pelatihan jaringan saraf buatan (neural networks). Artikel ini menyajikan penjelasan yang mudah dipahami bagi pemula, dengan analogi sederhana dan ilustrasi visual.&lt;/p&gt;

&lt;h2&gt;
  
  
  Pengertian Hipotesis Tiket Lotre
&lt;/h2&gt;

&lt;p&gt;Hipotesis ini menganalogikan jaringan saraf besar sebagai kumpulan tiket lotre. Sebagian besar tiket tidak berguna, tetapi terdapat sub-jaringan jarang (sparse subnetwork) yang, jika diidentifikasi dan dilatih secara terpisah, mampu mencapai performa setara dengan jaringan penuh.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Jaringan saraf terdiri dari jutaan parameter (bobot koneksi antar-neuron).&lt;/li&gt;
&lt;li&gt;Pada inisialisasi acak, sub-jaringan kecil (10-20% parameter) sudah "berpotensi menang".&lt;/li&gt;
&lt;li&gt;Fakta kunci: Sub-jaringan ini, setelah dipisahkan, dapat dilatih dengan sumber daya minimal tanpa mengorbankan akurasi.&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Ilustrasi 1: Analogi Tiket Lotre
&lt;/h2&gt;

&lt;p&gt;Bayangkan sebuah kotak berisi 1.000 tiket lotre. Hanya satu tiket pemenang. Demikian pula, dari jaringan saraf dengan jutaan parameter, hanya sub-jaringan kecil yang "pemenang".&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fy017hg9urm5ji5zjq87v.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fy017hg9urm5ji5zjq87v.png" alt=" " width="800" height="436"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  Signifikansi bagi Pemula di Bidang AI
&lt;/h2&gt;

&lt;p&gt;Konsep ini memiliki implikasi praktis yang signifikan:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Efisiensi Komputasi: Mengurangi kebutuhan GPU/CPU hingga 10 kali lipat.&lt;/li&gt;
&lt;li&gt;Aksesibilitas: Memungkinkan pelatihan model di perangkat sederhana, seperti laptop standar.&lt;/li&gt;
&lt;li&gt;Keberlanjutan: Menghemat energi, relevan di era komputasi ramah lingkungan.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Contoh: Pada dataset pengenalan gambar CIFAR-10, sub-jaringan dengan 10% parameter mencapai akurasi &amp;gt;90%, setara model penuh.&lt;/p&gt;

&lt;h2&gt;
  
  
  Mekanisme Kerja: Proses Langkah demi Langkah
&lt;/h2&gt;

&lt;p&gt;Proses pencarian "tiket pemenang" dilakukan secara sistematis:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Inisialisasi jaringan saraf besar secara acak.&lt;/li&gt;
&lt;li&gt;Latih sementara (1-2 epoch) untuk mengidentifikasi bobot penting.&lt;/li&gt;
&lt;li&gt;Pemangkasan (pruning): Hilangkan 80-90% bobot terkecil.&lt;/li&gt;
&lt;li&gt;Reset bobot sub-jaringan ke inisialisasi awal, lalu latih ulang.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  Ilustrasi 2: Diagram Proses (Mermaid)
&lt;/h2&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F1ztckuye9chdn1u1ryk2.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F1ztckuye9chdn1u1ryk2.png" alt=" " width="800" height="436"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;Diagram ini menggambarkan alur efisien, di mana output akhir (hijau) adalah model jarang yang superior.&lt;/p&gt;

&lt;h2&gt;
  
  
  Dampak dan Prospek Masa Depan
&lt;/h2&gt;

&lt;p&gt;Hipotesis ini telah diadopsi dalam framework seperti PyTorch dan TensorFlow, dengan aplikasi pada model besar seperti Transformer. Penelitian terkini (hingga 2025) menunjukkan keberhasilannya pada large language models (LLM). Tantangan utama meliputi konsistensi lintas arsitektur dan skalabilitas.&lt;/p&gt;

&lt;h2&gt;
  
  
  Penutup
&lt;/h2&gt;

&lt;p&gt;Hipotesis Tiket Lotre menegaskan prinsip kualitas mengungguli kuantitas dalam pengembangan AI. Bagi praktisi pemula, konsep ini mendorong eksplorasi implementasi langsung melalui repositori open-source. Unduh paper asli di &lt;a href="https://arxiv.org/abs/1803.03635" rel="noopener noreferrer"&gt;arXiv:1803.03635&lt;/a&gt; untuk studi lebih lanjut.&lt;/p&gt;

</description>
      <category>ai</category>
      <category>machinelearning</category>
    </item>
    <item>
      <title>Dari Matematika Murni ke Enkripsi: Bagaimana G. H. Hardy Secara Tak Sengaja Menggerakkan Kriptografi Modern</title>
      <dc:creator>Nugroho Ardi Sutrisno</dc:creator>
      <pubDate>Thu, 04 Dec 2025 06:52:16 +0000</pubDate>
      <link>https://forem.com/ardisaurus/dari-matematika-murni-ke-enkripsi-bagaimana-g-h-hardy-secara-tak-sengaja-menggerakkan-4go6</link>
      <guid>https://forem.com/ardisaurus/dari-matematika-murni-ke-enkripsi-bagaimana-g-h-hardy-secara-tak-sengaja-menggerakkan-4go6</guid>
      <description>&lt;p&gt;Ketika G. H. Hardy (Godfrey Harold Hardy) dengan bangga menyatakan bahwa karyanya dalam &lt;em&gt;matematika murni&lt;/em&gt; tidak akan pernah berguna secara praktis, ia ternyata keliru besar.&lt;/p&gt;

&lt;p&gt;Lebih dari 50 tahun setelah kematiannya, sistem yang mengamankan pesan WhatsApp Anda, melindungi transaksi perbankan online, dan menjaga komunikasi digital global semuanya bergantung pada ide-ide matematika yang pernah ia kembangkan.&lt;/p&gt;

&lt;p&gt;Ironisnya, matematika yang dulu ia sebut sebagai “indah tapi tak berguna” justru menjadi tulang punggung &lt;strong&gt;kriptografi modern&lt;/strong&gt;.&lt;/p&gt;

&lt;p&gt;Artikel ini membahas jembatan tak terduga antara teori bilangan awal abad ke-20 karya Hardy dan skema enkripsi yang mengamankan dunia digital kita saat ini.&lt;/p&gt;




&lt;h2&gt;
  
  
  🔑 Dunia Hardy: Matematika Murni demi Keindahan, Bukan Kegunaan
&lt;/h2&gt;

&lt;p&gt;Hardy adalah penganut kuat &lt;strong&gt;matematika murni&lt;/strong&gt; ilmu yang dikejar demi keindahannya, bukan aplikasinya.&lt;br&gt;&lt;br&gt;
Ia bekerja secara luas pada:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Teori bilangan prima&lt;/strong&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Analisis bilangan&lt;/strong&gt; (analytic number theory)
&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Rumus-rumus asimtotik&lt;/strong&gt;
&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Kolaborasi dengan Ramanujan dan Littlewood&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Pada masanya, bidang-bidang ini dipandang kaya secara intelektual namun tidak memiliki manfaat praktis.&lt;/p&gt;

&lt;p&gt;Hari ini, bidang yang sama justru menjadi inti dari kriptografi.&lt;/p&gt;




&lt;h2&gt;
  
  
  🔗 Bagaimana Karya Hardy Terhubung dengan Kriptografi Modern
&lt;/h2&gt;

&lt;p&gt;Berikut diagram sederhana untuk memperlihatkan keterkaitannya:&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fx13ytl77jylcw8tijh6o.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fx13ytl77jylcw8tijh6o.png" alt="Relation between Hardy's work to modern cryptography" width="800" height="1091"&gt;&lt;/a&gt;&lt;/p&gt;




&lt;h2&gt;
  
  
  1️⃣ Teori Bilangan Prima → RSA dan Enkripsi Kunci Publik
&lt;/h2&gt;

&lt;p&gt;Karya Hardy bersama Littlewood menghasilkan pemahaman mendalam tentang distribusi bilangan prima.&lt;/p&gt;

&lt;p&gt;Hal ini sangat penting hari ini karena hampir semua sistem kriptografi kunci publik seperti RSA, Diffie–Hellman, hingga elliptic-curve cryptography (ECC) bergantung pada:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;ketersediaan bilangan prima besar&lt;/strong&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;kepadatan bilangan prima dalam rentang tertentu&lt;/strong&gt;
&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;kesulitan memfaktorkan bilangan komposit besar&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;RSA, misalnya, bekerja dengan memilih dua bilangan prima besar dan mengalikannya. Keamanan muncul dari kesulitan memfaktorkan hasil perkalian itu kembali menjadi dua bilangan prima awal yang merupakan fenomena yang dipahami melalui teori bilangan.&lt;/p&gt;




&lt;h2&gt;
  
  
  2️⃣ Analisis Bilangan → Fondasi “Tingkat Kesulitan” dalam Kriptografi
&lt;/h2&gt;

&lt;p&gt;Hardy adalah salah satu pionir &lt;strong&gt;analytic number theory&lt;/strong&gt;, penggunaan analisis matematis untuk mempelajari bilangan bulat.&lt;/p&gt;

&lt;p&gt;Bidang ini menjadi dasar bagi banyak asumsi keamanan dalam kriptografi modern, seperti:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;distribusi bilangan prima
&lt;/li&gt;
&lt;li&gt;struktur aritmetika modular
&lt;/li&gt;
&lt;li&gt;kesulitan logaritma diskrit
&lt;/li&gt;
&lt;li&gt;sifat acak fungsi bilangan&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Analisis bilangan menyediakan “medan matematis” tempat algoritma kriptografi berdiri.&lt;/p&gt;




&lt;h2&gt;
  
  
  3️⃣ Metode Asimtotik Hardy–Ramanujan → Analisis Kompleksitas Algoritma
&lt;/h2&gt;

&lt;p&gt;Hardy dan Ramanujan mengembangkan metode canggih untuk memperkirakan pertumbuhan fungsi, yang kini berhubungan dengan &lt;strong&gt;analisis kompleksitas algoritma&lt;/strong&gt;.&lt;/p&gt;

&lt;p&gt;Pendekatan ini penting untuk:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;mengevaluasi performa algoritma kriptografi
&lt;/li&gt;
&lt;li&gt;menentukan ukuran kunci yang aman
&lt;/li&gt;
&lt;li&gt;memperkirakan ketahanan brute-force
&lt;/li&gt;
&lt;li&gt;menganalisis hash dan pseudorandom number generators&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Teknik-teknik mereka membentuk cara kita memahami keamanan digital secara matematis.&lt;/p&gt;




&lt;h2&gt;
  
  
  🔥 Ironi Terbesar: Matematika “Tak Berguna” Hardy Justru Menjadi Pondasi Dunia Siber
&lt;/h2&gt;

&lt;p&gt;Dalam &lt;em&gt;A Mathematician’s Apology&lt;/em&gt;, Hardy pernah menulis:&lt;/p&gt;

&lt;blockquote&gt;
&lt;p&gt;“Saya tidak pernah melakukan sesuatu yang ‘berguna’. Tidak ada penemuan saya yang membuat atau memungkinkan, langsung atau tidak langsung, perbedaan terhadap kenyamanan dunia.”&lt;/p&gt;
&lt;/blockquote&gt;

&lt;p&gt;Ironisnya, ia tidak mungkin membayangkan:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;perbankan online
&lt;/li&gt;
&lt;li&gt;komunikasi terenkripsi
&lt;/li&gt;
&lt;li&gt;tanda tangan digital
&lt;/li&gt;
&lt;li&gt;blockchain
&lt;/li&gt;
&lt;li&gt;belanja internet
&lt;/li&gt;
&lt;li&gt;enkripsi untuk pertahanan dan keamanan nasional
&lt;/li&gt;
&lt;li&gt;komunikasi satelit&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Semua bergantung pada teori bilangan, bidang yang ia kembangkan dengan penuh kecintaan.&lt;/p&gt;




&lt;h2&gt;
  
  
  🎯 Kesimpulan
&lt;/h2&gt;

&lt;p&gt;G. H. Hardy tidak pernah membayangkan kriptografi. Namun karya matematisnya yang murni, elegan, dan sengaja tidak praktis menjadi fondasi yang menopang keamanan dunia digital modern.&lt;/p&gt;

&lt;p&gt;Di era ketika miliaran pesan terenkripsi terkirim setiap hari, warisan Hardy semakin terasa hidup.&lt;/p&gt;

&lt;p&gt;Matematikanya yang “tidak berguna” kini menjadi salah satu matematika &lt;strong&gt;paling berguna&lt;/strong&gt; yang pernah dibuat.&lt;/p&gt;

</description>
      <category>cryptography</category>
      <category>math</category>
      <category>history</category>
    </item>
  </channel>
</rss>
