Blog

Enigma cz. 11 - współczesność

Data publikacji: 2021-10-04

Ostatnia edycja: 2021-10-06

Stały adres serii wpisów o Enigmie - /blog/enigma

Współczesność, czyli kiedy

Wpis ten jest zakończeniem historycznej części serii związanej z Enigmą. Coś, co pierwotnie miało być tylko wyjaśnieniem historycznego kontekstu i roli Enigmy, rozrosło się do opracowania ogólnej historii kryptologii wojskowej od XIX wieku (wynalazek telegrafu i radia) po upadek systemu komunistycznego. Cała ta opowieść kończyła się w momencie zbyt interesującym, by tak nagle przerwać.

Tak więc tu w tym wpisie jest finisz tej opowieści i z konieczności ma on zupełnie inny charakter. Przede wszystkim jest bardziej otwarty, nie kończy się w żadnym określonym momencie oprócz chwili obecnej - 2021. Ponadto kryptologia wojskowa schodzi tu na drugi plan, i to z co najmniej dwóch powodów.

Pierwszym jest oczywisty fakt, że są to kwestie objęte ścisłą tajemnicą, w wielu przypadkach po prostu wiadomo o istnieniu danych urządzeń czy rozwiązań; szczególnie w wojskowości bezpieczeństwo przez zaciemnienie (security by obscurity) jest wciąż stosowaną techniką ochrony danych.

Drugim i ważniejszym jest to, że dzięki popularyzacji mikrokomputerów (późniejszych komputerów osobistych) i Internetu, a w XXI wieku także smartfonów oraz urządzeń IoT - kryptografia trafiła pod strzechy. To oznacza, że zwykły użytkownik, czyli każdy współczesny człowiek, świadomie lub nie, stał się użytkownikiem rozwiązań kryptograficznych o sile niejednokrotnie porównywalnej z tymi, którymi dysponuje wojsko.

Jednocześnie z rozwojem mediów społecznościowych i dynamicznej wymiany informacji, podstawową kwestią stała się prywatność i cenzura. Są kraje takie jak Chiny, które zbudowały odrębną przestrzeń informacyjną. Jednocześnie wymiana danych stała się pierwszorzędną sprawą polityczną - Arabska Wiosna, afera Snowdena, popularność teorii spiskowych. Internet już zmienił nasz świat i będzie go zmieniać jeszcze bardziej. Zawsze w tle jest kryptografia, więc podsumowując ten wstęp - jeżeli człowiek jest coraz bardziej zbiorem danych, to istotną częścią tych danych jest informacja, jak zostały zaszyfrowane. Wszyscy w jakiejś mierze jesteśmy szyfrem.

Z natury rzeczy wpis ten nie jest jakimś kompletnym przeglądem współczesnego znaczenia kryptologii, bo ta jest wszędzie. Każda rzecz, której używamy, została zaprojektowana, podlegała dystrybucji i sprzedaży w systemie używającym na każdym etapie swojego działania jakiejś techniki kryptograficznej.

Tu mogę tylko zachęcić do zainteresowania się tą tematyką - proponując przegląd popularniejszych zastosowań bezpośrednio dostępnych zwykłemu użytkownikowi. Niekompletny, ale mam nadzieję, że wymowny.

WWW

Na przełomie lat 80. i 90. upada system komunistyczny, kończy się Zimna Wojna. W tym samym czasie ma miejsce jeszcze jedna nie mniej ważna zmiana. Internet, który istnieje od początku lat 70., w kolejnej dekadzie staje się własnością publiczną. Dzięki popularyzacji mikrokomputerów - 8-bitowe maszyny typu Commodore, ZX Spektrum czy Atari - i modemom można było uzyskać wdzwaniany dostęp do sieci akademickich i całego Internetu. W 1981 powstaje Fidonet - niezależna sieć BBS, tworzona całkowicie oddolnie przez entuzjastów.

Oprócz BBS-ów, które dawały możliwość wymiany dokumentów tekstowych, dostępne były znane i dzisiaj usługi internetowe takie jak mail, usenet, grupy dyskusyjne, newslettery, FTP i IRC.

Tim Berners-Lee, brytyjski fizyk pracujący w CERN w 1989 zaproponował stworzenie nowej usługi internetowej polegającej na publikacji online dokumentów hipertekstowych. Ponieważ nie spotkała się z zainteresowaniem, sam w ciągu kilku miesięcy od października 1990 napisał serwer (HTTPD), klienta (WorldWideWeb), protokół (HTTP) i język (HTML) tej usługi. Krótko wahał się jak ją nazwać i w końcu z braku lepszego pomysłu wybrał nazwę: Ogólnoświatowa Pajęczyna - World Wide Web (OK, po polsku używa się określenia "sieć", ale przecież sieć to po angielsku "net").

Od grudnia 1990 działa pierwsza strona internetowa info.cern.ch i w 1991 WWW staje się sensacją usenetu. Nowy standard Internetu błyskawicznie zyskuje popularność. Okazuje się, że jest to dokładnie to, czego rynek potrzebował. O WWW i Internecie zaczyna się mówić w mediach.

Od lutego 1993 można pobrać NCSA Mosaic, pierwszą graficzną przeglądarkę WWW, która była także klientem FTP, NNTP oraz Gophera. NSCA to National Center for Supercomputing Applications na Uniwersytecie Illinois. WWW został dostrzeżony przez biznes. Jeden z twórców Mosaica, Marc Andreessen założył Netscape i w grudniu 1994 udostępnił znacznie udoskonaloną przeglądarkę: Netscape Navigator. W końcu do rewolucji z pewnym opóźnieniem dołącza Microsoft, w 1995 razem z nowym graficznym systemem operacyjnym Windows 95 w ramach pakietu Microsoft Plus! dołącza swoją przeglądarkę internetową Internet Explorer.

W celu standaryzacji i rozwoju nowej usługi w 1994 powstaje World Wide Web Consortium, w skrócie określane W3C. Od połowy lat 90. WWW staje się tak wielkim sukcesem, że już wkrótce w powszechnej świadomości różnica pomiędzy Internetem a WWW zaciera się, i to WWW staje się Internetem. Z biegiem czasu wszystkie usługi internetowe zostają skanibalizowane przez WWW: mail staje się webmailem, przeglądarka służy do wymiany plików zamiast klienta FTP, usenet i listy dyskusyjne mają swoje archiwa WWW, coraz więcej aplikacji jest udostępniane jako webaplikacje.

Jedną z nowych rzeczy, które wprowadził Netscape, był SSL (Secure Sockets Layer) - protokół szyfrowania transmisji stworzony przez Tahera Elgamala. Pierwsza publiczna wersja, czyli 2.0 zostaje opublikowana w lutym 1995. Ulepszona wersja 3.0 już jako TLS 1.0 staje się publicznym standardem opisanym w RFC 2246 w styczniu 1999. Nieformalnie wciąż używa się nazwy SSL.

SSL używa kryptografii symetrycznej, asymetrycznej i jednostronnej zapewniając trzy rzeczy:

  • szyfrowanie danych end-to-end, zapewniające, że ewentualny podsłuchujący może odczytać tylko adres, z którym się łączymy, a nie przesyłane treści (adresy DNS, z którymi się łączymy można ukryć, używając Tora, VPN, lub DNS-over-HTTPS)
  • uwierzytelnienie jednej lub obu stron komunikacji
  • zapewnienie integralności przesyłanych danych

Obecnie obowiązującym standardem jest TLS 1.3 zdefiniowany w RFC 8446 w sierpniu 2018. SSL jest standardem przemysłowym we wszystkich usługach, w których wymieniamy wrażliwe informacje: banki, płatności, sklepy, mail itp. Od 2015 dostępny jest darmowy certyfikat SSL Let's Encrypt.

Tu na marginesie uwaga: często jesteśmy pouczani, że "zielona kłódeczka", którą przeglądarki sygnalizują szyfrowanie SSL, oznacza bezpieczeństwo. Niestety, nie jest to prawda. Złodzieje na fałszywych stronach typu: sklepy, wyłudzenia, płatności całkiem za darmo mogą założyć takie szyfrowanie. Samodzielnie musimy sprawdzić, czy domena się zgadza, czy sklep jest prawdziwy, a nawet wtedy jesteśmy podatni na atak np. podstawienia znajdującego się w buforze numeru rachunku. Bezpieczeństwo to ogromna dziedzina i tłumaczenie użytkownikom, że "zielona kłódeczka" to jakaś gwarancja jest bardzo szkodliwe. Natomiast brak "kłódeczki" rzeczywiście jest gwarancją - braku zabezpieczeń.

Internet

Internet powstał jako projekt wojskowy na publicznych uniwersytetach, więc nie był zaprojektowany z myślą o bezpieczeństwie. Miał być uniwersalny, szybki, łatwy w rozbudowie. Podczas Zimnej Wojny obowiązywała doktryna wzajemnego wyniszczenia i Amerykanie uznali, że prawdziwa wojna zacznie się dopiero po zużyciu potencjału atomowego - rozpocznie wyścig, która ze stron szybciej odbuduje swój kraj, tutaj strategiczne znaczenie miała infrastruktura łączności pozwalająca na przesyłanie raportów, meldunków, dokumentacji. Dlatego Internet został zaprojektowany w tak elastyczny sposób.

W praktyce na początku użytkowników było niewielu i wszyscy byli łatwi do identyfikacji. Najczęściej już z samej tylko racji dostępu do komputerów już byli autoryzowani. Dopiero kiedy usługi internetowe stały się własnością publiczną, okazało się, że potrzebne jest szyfrowanie danych i automatyczne uwierzytelnienie użytkowników w systemie.

W tym rozdziale pokrótce wymienię wszystkie udoskonalenia usług internetowych pierwotnie pozbawionych ochrony kryptograficznej.

IPsec

Internet Protocol Security aka IP Security jest to opracowany w latach 1992-96 zbiór protokołów oryginalnie planowany dla IPv6, mający na celu uwierzytelnienie i szyfrowanie ruchu w Internecie. Pakiety protokołu IP poddawane są enkapsulacji (kapsułkowaniu), tzn. zawierane są w ramce danych opisanych protokołami IPsec. Dodatkowo obie strony komunikacji uwierzytelniają się wymianą kluczy kryptograficznych opisaną osobnym protokołem IKE (Internet Key Exchange).

IPsec charakteryzuje się niewielką ilością ujawnianych na zewnątrz informacji oraz jednoczesnym tworzeniem wielu kanałów komunikacji, kilka z nich ma charakter techniczny (oddzielne kanały są tworzone do wymiany kluczy) i wszystkie są jednokierunkowe.

IPsec miał zreformować Internet jako wymagany element IPv6, ale ostatecznie IPv6 został poważnie zredukowany, więc tylko część IPsec jest wymagana w sieciach IPv6. Obecnie IPsec jest podstawą VPN.

SSH

Powszechnie udostępnianą usługą internetową były konta shellowe dające prawa użytkownika na serwerach. Do łączenia używano zwykle telnetu, który nie był w żaden sposób zabezpieczony. Nawet hasło było przesyłane w jawnej postaci.

W 1995 Tatu Ylönen naukowiec z Technicznego Uniwersytetu Helsińskiego (Finlandia), przedstawił pierwszą wersję SSH (secure shell), który "owija" dane tworząc zabezpieczony tunel.

W 2006 wprowadzono nowszą, niekompatybilna z poprzednią wersję standardu SSH-2. Najpopularniejszym programem obsługującym protokół jest OpenSSH. Dla Windows powstał PuTTY.

Jedną z usług protokołu jest Secure copy protocol (SCP), czyli kopiowanie pomiędzy systemami plików. Nie jest już zalecane. Zamiast SCP powinno się używać SFTP lub uniksowego rsync (dostępny od 1996), który sam w sobie nie jest zabezpieczony, ale może być używany w tunelu SSH.

FTP

Jeden z pierwszych protokołów internetowych, wprowadzony w 1971.

  • FTPS (FTP-SSL aka FTP Secure), szkic RFC "Secure FTP over SSL" w 1996, ostateczna wersja standardu 2005.
  • SFTP (SSH File Transfer Protocol aka Secure File Transfer Protocol) prace nad nim zaczęły się jeszcze, kiedy SSH był własnościowym protokołem, w 1997; ostatecznie SFTP stał się częścią SSH-2 i końcowa wersja została ustalona w 2011.

Mail

Już w latach 60. użytkownicy mogli przesyłać wiadomości między terminalami. W 1971 w ramach internetu powstała usługa tego typu (już z @ pomiędzy nazwą użytkownika a nazwą hosta), a rok później dedykowany jej program o wymyślnej nazwie mail. W 1981 wprowadzono protokół poczty wychodzącej SMTP (Simple Mail Transfer Protocol). Nie zawierał żadnego uwierzytelnienia nadawcy. Z powodu narastającego problemy ze spamem w 1995 pojawia się SMTP Authentication (w skrócie: SMTP AUTH), a później, w 1997 SASL (Simple Authentication and Security Layer).

W walkę ze spamem zaangażowali się wszyscy dostawcy maila i usług internetowych. Od początku było wiadomo, że filtry antyspamowe są leczeniem objawów, sama architektura usługi nie zapewnia ani bezpieczeństwa danych, ani uwierzytelnienia użytkownika. Obecnie dysponujemy trzema, najczęściej stosowanymi łącznie standardami uwierzytelnienia maila:

  • SPF (Sendler Policy Framework) RFC 4408 z kwietnia 2006.
  • DKIM (DomainKeys Identified Mail) RFC 6376 z września 2011
  • DMARC (Domain-based Message Authentication, Reporting and Conformance) RFC 7489 z marca 2015

Wydawałoby się, że to powinno wystarczyć, prawda? Niestety wielość zabezpieczeń nie przekłada się na wiarygodność usługi.

PGP

W 1991 aktywista antyatomowy Philip Zimmermann udostępnił na wolnej licencji program PGP (Pretty Good Privacy) pozwalający na zaszyfrowanie komunikacji. Aplikacja pierwotnie działała tylko w linii poleceń i przeznaczona była dla użytkowników BBS-ów, ale wkrótce powstała wersja okienkowa i wtyczki do wszystkich ważnych programów pocztowych.

Program był darmowy. Po raz pierwszy użytkownicy Internetu dostali łatwe w użyciu narzędzie kryptograficzne o mocy porównywalnej z narzędziami używanymi przez rządy i korporacje. Wzbudziło to obawy służb specjalnych, w tym oczywiście NSA. Zimmermannowi zagroził proces, kiedy jego program zaczął być używany za granicami USA. Okazało się bowiem, że zgodnie z przepisami eksportowymi USA szyfry powyżej 40-bitowego klucza traktowane są jako amunicja, a umieszczenie programu na serwerze i pobieranie go z zagranicy jest eksportem. Więc Zimmermann eksportował amunicję i to bez pozwolenia. Problem został rozwiązany przez publikację kodu na papierze i wywóz z kraju kodu w formie drukowanej, co było legalne, bo gwarantowane przepisami o wolności słowa. Z papieru przepisano kod za granicą, i tak program stał się legalny. W ten dość niecodzienny sposób życie radziło sobie z nową rzeczywistością.

PGP 5.0 w 1997 zmienił się w program płatny z darmową wersją, ale tylko do użytku niekomercyjnego. Jednocześnie Zimmermann zaproponował stworzenie publicznego standardu OpenPGP i tak też się stało.

W 1999 niemiecki programista Werner Koch udostępnił na wolnej licencji GPL program GPG (GNU Privacy Guard aka GnuPG), algorytmicznie zgodny z PGP i będący jego całkowicie wolnym odpowiednikiem.

PGP / GPG to są uniwersalne narzędzia kryptograficzne, wspierają wiele algorytmów i właściwie wszystkie funkcje kryptograficzne: szyfrowanie plików i strumieni szyfrem symetrycznym, podpis elektroniczny, kompresja, hasz itd. Dzięki ogromnej liczbie wtyczek mogą być używane we wszystkich systemach operacyjnych właściwe ze wszystkimi programami, w których ma sens używanie kryptografii. Jest to kryptograficzny scyzoryk szwajcarski.

Sumy kontrolne

Kryptograficzna funkcja skrótu (inaczej mówiąc hasz) zapewnia unikalny identyfikator dla każdego pliku. Umieszczenie online autoryzowanych skrótów dla udostępnianych plików zapewnia możliwość potwierdzenia binarnej identyczności, a więc oryginalności pliku. Użytkownik może porównać wynikowy skrót z przedstawionym przez wystawcę. Pierwotnie skróty takie były umieszczone na stronie, obok linków z plikami do pobrania. Owszem, te skróty mogły zostać podstawione przez atakującego, ale wymagałoby to oddzielnego i łatwego do zidentyfikowania ataku.

Później sumy kontrolne zostały powiązane z podpisem elektronicznym. Z czasem we wszystkich systemach operacyjnych pojawiły się systemy aktualizacji, samego systemu, domyślnych aplikacji, jak i wszystkich doinstalowanych przez użytkownika. Wszystkie używają kluczy, podpisów i skrótów kryptograficznych.

Również hasła trzymane są w postaci sum kontrolnych. Kiedy użytkownik podczas logowania wprowadza hasło, na bieżąco jest traktowane taką samą funkcją skrótu i jeśli wynik jest ten sam, oznacza to, że źródłowe frazy były identyczne. Dzięki temu system może wiedzieć, czy użytkownik wpisał poprawne hasło, nie znając samego hasła. Trzeba pamiętać by nie używać prostej i łatwej do złamania funkcji haszującej takiej jak np. MD5, czy SHA-1.

DRM

Ściśle związaną z kryptografią dziedziną, którą błyskawicznie zainteresował się biznes, jest DRM. Dosłownie ten skrót oznacza Digital Rights Management, czyli zarządzenie prawami cyfrowymi. Z powodu kontrowersji, jakie te rozwiązania wzbudzają, skrót bywa rozwiązywany jako digital restrictions management, czyli zarządzanie restrykcjami cyfrowymi. W istocie chodzi o takie ograniczenie możliwości sprzedawanego nośnika z produktem cyfrowym, by ograniczyć możliwość kopiowania go i / lub udostępniania osobom trzecim. Może to być traktowane jako system restrykcji prawa dostępu do informacji. Zabezpieczanie możliwości wykonania kopii na własny użytek to ograniczanie praw klienta. Był nawet przypadek (Sony BMG), że płyty CD instalowały rootkita w komputerze użytkownika.

Podstawową słabością tych zabezpieczeń jest fakt, że sygnał, i tak może zostać przechwycony w trakcie odtwarzania.

Pewną, łagodniejszą formą DRM jest cyfrowy znak wodny, czyli zawarcie w sprzedawanym pliku informacji o właścicielu (widoczny znak wodny) lub nabywcy (niewidoczny). W ten sposób, jeśli np. zabezpieczona znakiem wodnym książka znajdzie się w nielegalnym obiegu, wydawca może zablokować konto użytkownika lub podjąć przeciwko niemu jakieś inne działania.

Generalnie rzecz biorąc, większość tego typu zabezpieczeń okazała się kosztownym i spektakularnym fiaskiem.

NSA

Siedzibą Agencji jest Fort George G. Meade k Laurel w stanie Maryland. Jest drugim co do wielkości odbiorcą elektryczności w stanie Maryland.

Afera Snowdena

Po upadku CCCP nastąpiło przeorientowanie zadań Agencji. Pierwszym celem stały się kartele narkotykowe, a po drugim ataku na WTC 11 września 2001 terroryzm islamski. Agencja uzyskała praktycznie nieograniczone zasoby budżetowe i kompetencje wynikające z Patriot Act.

Z czasem pojawił się krytycyzm wobec metod i skali działań wszystkich agencji wywiadowczych, w tym głównie NSA. Podniesiono sprawę makkartyzmu, którego realizatorzy złamali kariery wielu ludzi w pościgu za urojonymi agentami komunistycznymi, podczas kiedy prawdziwi działali bez większych problemów. Ponurym cieniem na opinii Agencji położyła się również sprawa operacji SHAMROCK, która zaczęła się od zrozumiałego i oczywistego śledzenia ruchu międzynarodowego ambasad i wyznaczonych celów podejrzanych o kontakty szpiegowskie. Z czasem jednak urosła do największego w dziejach krajowego systemu inwigilacji własnych obywateli, w ciągu miesiąca rejestrowano 150 tys. wiadomości i rozmów. Zakończyło ją dopiero śledztwo Kongresu w 1975, które po dwóch latach wykazało rutynowe łamanie przepisów i praw człowieka.

Wszystkie podejrzenia potwierdziły się w 2013, kiedy Edward Snowden zaczął udostępniać tajne dokumenty. W latach 2006-09 pracował w CIA, potem w NSA. Jak podaje Pentagon, Snowden przechwycił 1,7 mln tajnych dokumentów; szef NSA przyznał, że liczba dokumentów udostępnionych dziennikarzom waha się od 50 do 200 tys. Opublikowano tylko ok. 1% z nich, ale i tak wyłonił się przerażający obraz totalnej inwigilacji, dokonywanej z pomocą GCHQ, telekomów i dziesiątek firm udostępniających usługi internetowe, m.in. takich jak Google, Facebook, Apple, które chętnie podarowały służbom klucze kryptograficzne.

STE (Secure Terminal Equipment)

Zmiany techniczne, które zaszły w samej telefonii spowodowały potrzebę zmiany standardu szyfrowanego telefonu. Dotychczasowy, czyli STU, którego nowsze wersje były wciąż w produkcji na początku lat 90., powstał głęboko w latach 70.

Nowy telefon oprócz dotychczasowych linii PSTN był także dostosowany do ISDN. Ponadto całą warstwę kryptograficzną przeniesiono na klucz sprzętowy, którym była karta PCMCIA Fortezza Crypto Card. Bez niej telefon nie ma żadnego sekretu kryptograficznego i nawet jeśli wpadnie w ręce nieprzyjaciela, nie narazi kryptosystemu. Zapewnia lepszą jakość głosu i większą szybkość transmisji 8.4 Kb/s asynchronicznie, 128 kB/s synchronicznie. W tryb bezpieczny przechodzi bez opóźnienia.

Wyłącznym producentem był L-3 Communications in Camden (New Jersey). Urządzenia produkowane do 2009 zachowywały wsteczną kompatybilność z telefonami STU-III. 31 grudnia 2009 STU-III zostały wycofane i kompatybilność przestała być potrzebna. STE zostały sprzętowo zmodernizowane do version 2, niemającej zgodności ze STU-III.

2006 $3_000 do $4_000, nie licząc karty

W 2014 amerykańskie agencje rządowe rozpoczęły proces wymiany urządzeń STE na Sectéra® vIPer Universal Secure Phone, z wbudowanym systemem bezpieczeństwa, są one kompatybilne z STE. Nie wymagają karty ani systemu CIK.

AT&T TSD-3600-E

Szyfrator telefoniczny, mała kostka umieszczana pomiędzy słuchawką a aparatem. Oparta na kontrowersyjnym czipie Clipper Chip, który wymagał powierzenia sekretu kryptograficznego.

Wprowadzony w 1993, cena wynosiła wówczas $1_000. Po 10 latach okazało się, że wiele z nich wciąż były fabrycznie zapakowane.

AT&T 4100

Szyfrowany telefon na rynek cywilny. Jest to ekonomiczna wersja aparatów AT&T 1100 STU-III. Wprowadzona na rynek w 1992, nie używał systemu CIK i w klasyfikacji produktowej NSA należał do Type 4, więc mógł być sprzedawany bez ograniczeń, także za granicą. Używa kryptografii asymetrycznej, programowej. W trybie full-duplex mógł wysyłać dane z prędkością 2400, 4800 and 9600 b/s i miał gniazda do przyłączenia modemów V.26 i V.32. Ekranowany.

Clipper Chip

Depozyt klucza kryptograficznego opracowany przez rząd amerykański. Zapewniał proste w użyciu szyfrowanie głosu, wystarczyło wpiąć urządzenie pomiędzy słuchawkę a aparat. Wymagał powierzenia kluczy kryptograficznych agencjom rządowym i wzbudził ogromne kontrowersje. Wprowadzony w 1993 i już trzy lata później został wycofany. Klucz był dzielony pomiędzy dwie agencje rządowe, dopiero wspólna wiedza pozwalała na jego rekonstrukcję. Używano w tym celu algorytmu Skipjack, który został upubliczniony w 1998. Używa 80-bitowego klucza i algorytmu symetrycznego podobnego do DES.

1993 $16, po zaprogramowaniu $26.

Fortezza Crypto Card (KOV-8/12/14)

Zaakceptowana przez NSA karta kryptograficzna Type 1 w formacie PCMCIA. Wprowadzona w 1993. Klucz sprzętowy dla telefonów STE i aplikacji desktopowych. Głównym zadaniem jest dystrybucja kluczy i zapewnienie ochrony kryptograficznej systemu mailowego DoD USA DMS (Defense Message System).

Początkowo zawierały czip Capstone MYK-80 używający algorytmu Skipjack, który powstał dla Clipper Chip. Obecnie ma klasyfikację Type 2. Późniejsza wersja - KOV-12 - ma już klasyfikację Type 1. KOV-14 używa czipa kryptograficznego Mykotronx MYK-82

2012 $240

KSV-21

KSV-21 Enhanced Crypto Card karta kryptograficzna PCMCIA dla telefonów STE. Następca KOV-14 Fortezza Plus card, wycofanej w 2008.

Programowalny, chroniony przed podrobieniem moduł kryptograficzny Type 1. W odróżnieniu od Fortezza wspiera SCIP, Enhanced Firefly oraz wprowadzony już w XXI wieku system Key Management Initiative. Szyfrowanie i haszowanie z prędkością 80 Mbits/s.

KY-189

Wojskowy scrambler głosu przeznaczony od użytku taktycznego opracowany w 1990. Dostosowany do wielu wojskowych zestawów radiowych. Po raz pierwszy zastosowany na polu walki w 1991 w Jugosławii. Ma formę typowej wojskowej słuchawki z klawiaturą i przełącznikiem PTT (Push-To-Talk). Szyfrowanie sprzętowe, zmiana częstotliwości z synchronizacją. Oferuje wysoki poziom bezpieczeństwa, z każdym naciśnięciem PTT generowane jest nowy kod połączenia. Zapewnia Automatic Number Identification (ANI), Status and Location Report, All Stations Alert Tone, programowalny Time-out Timer i Selective Call. Każdy KY-189 ma wbudowany Master Code Key zabezpieczający przed nieautoryzowanym użyciem.

Citadel

Czip zapewniający szyfrowanie sprzętowe. Opracowany w 1997 przez Harris Corporation w Rochester (NY, USA). Niezaklasyfikowany do Type 1, więc można go eksportować. Zapewnia trzy algorytmy kryptograficzne i może być zastosowany w dowolnym sprzęcie elektronicznym.

W 2004 na rynku pojawiła się udoskonalona wersja Citadel II.

Nie jest używany w wojskowym sprzęcie USA. US Army używa czipów Sierra i Sierra II, z którymi Citadel zachowują kompatybilność.

Rosja

Severok-K (Северок-к)

Radio szpiegowskie przeznaczone dla sił specjalnych i tajnych agentów. Dostępny jest scrambler głosu. Choć jest w pełni cyfrowe, używa starej technologii, jeszcze z czasów Zimnej Wojny - osobnych, dołączanych modułów dla różnych częstotliwości.

DKM-S

Cyfrowy kompresor sygnału opracowany w 1993 przeznaczony do użycia z radiem Severok-K i innymi zestawami radiowymi tego typu. Małe, w aluminiowej obudowie w kolorze młotkowym szarym. Klawiatura 16 przycisków i 5-cyfrowy wyświetlacz. Połączenia do radia i do mikrofonu.

AES

Szybki wzrost mocy obliczeniowej komputerów i krytyka DES spowodowały, że przestał być wystarczalny. Potrzebny był nowy standard szyfru symetrycznego. W 1997 NIST rozpisał konkurs, w 2001 jego zwycięzcą został Rijndael - szyfr opracowany przez belgijskich kryptologów Joana Daemena i Vincenta Rijmena, nazwa szyfru jest kombinacją nazwisk twórców.

Został przyjęty przez rząd amerykański jako standard pod nazwą AES (Advanced Encryption Standard), jest używany również przez NSA. Nie używa sieci Feistela, ma stały rozmiar bloku 128 bitów, natomiast zmienny jest rozmiar klucza: 128, 192 lub 256 bitów.

Nie są znane skuteczne ataki na AES.

Szyfrowanie plików i systemów plików

W dawnych czasach każdy megabajt dysku był cenny. W 1989 pojawił się format zip (Phil Katz, PKZIP), w 1999 jego ulepszona wersja 7-Zip. W 1993 rosyjski programista Jewgienij Roszal udostępnił RAR dla Windows, natomiast Jean-loup Gailly gzip dla uniksów, zamiennik compress (1985). 1996 Julian Seward bzip.

Wszystkie te formaty kompresji udostępniają również możliwość szyfrowania archiwów. Szyfrować można również całe systemy plików (partycje i dyski), po zaszyfrowaniu dostęp do nich bez znajomości hasła nie jest możliwy.

  • Windows: EFS (Encrypting File System) od Windowsa 2000 od wersji 3.0 NTFS. Od Windows Vista BitLocker.
  • Linux (i generalnie systemy uniksowe) miały więcej tego typu rozwiązań, ale wiele z nich nie jest już aktywnie rozwijanych, z aktualnych warto zauważyć dm-crypt i eCryptfs (podsystemy jądra).
  • Niezależne od systemu: VeraCrypt i EncFS.

Ransomware

Ransomware jest to, jak sama nazwa wskazuje oprogramowanie wymuszające przez rozmaitego rodzaju szantaż zapłacenie okupu. Ponieważ szantaż i okup to jedyne cechy definiujące tę formę ataku jest to bardzo zróżnicowana dziedzina i tylko częściowo związana z kryptografią.

Za pierwszy przypadek programu ransomware uważa się trojana AIDS. W 1989 wykształcony na Harvardzie biolog dr Joseph Popp rozesłał 20 tys dyskietek oznaczonych "AIDS Information Introductory Diskette". Była to ankieta diagnostyczna oceniająca prawdopodobieństwo zarażenia wirusem HIV, działała w systemie DOS. Nikt albo prawie nikt nie czytał licencji - to się nie zmieniło do dziś. Po 90. uruchomieniu zgodnie z zaakceptowaną przez użytkownika licencją program wymuszał podłączenie drukarki, a ta drukowała żądanie okupu i adres w Panamie, po czym szyfrował dane, obiecując odszyfrowanie po wpłaceniu na 199 dolarów.

Nowe pole do działania tego typu programów stanowi Internet. Początkowo nie było ich wiele. Przełomowego kroku w tej dziedzinie dokonali sami badacze komputerowi - Adam Young i Mordechai "Moti" Yung w artykule "Cryptovirology: extortion-based security threats and countermeasures" wskazali błędy popełnione przez Poppa. Napisali, że o wiele lepszym rozwiązaniem jest zastosowanie kryptografii asymetrycznej i elektronicznej formy płatności.

Na szczęście dla użytkowników bardzo długo przestępcy uczyli się powoli. Przełomem były lata 2012-13. Już wcześniej istniały programy mające wszystkie cechy ransomware, ale dopiero Reveton z 2012 i rok późniejszy CryptoLocker sprawiły, że wszyscy zaczęli o nich mówić. Prym w tej dziedzinie - jak zresztą w całej przestępczości komputerowej - wiedli Rosjanie. Rosja bowiem, co jest tajemnicą poliszynela, nie ściga swoich obywateli za przestępczość komputerową, jeśli nie są atakowane cele rosyjskie.

Pierwszą popularną formą ransomware były screenlockery - proste do obejścia blokady ekranów wymuszające opłaty na ówcześnie dostępne formy pieniądza elektronicznego zapewniającego pewien stopień anonimowości: Ukash lub Paysafecard. Podawali się za legalne organizacje, początkowo był to Microsoft potem policja. Pojawiły się w 2011. Reveton był pierwszym screenlockerem rozprzestrzeniającym się jak wirus. Utworzono go na podstawie trojana Zeus. Przedstawiał się jako komunikat ze strony policji, prezentując pedofilskie zdjęcia znajdujące się rzekomo na komputerze ofiary.

Kolejnym przełomem był trojan CryptoLocker, którego autorzy w pełno zastosowali się do artykułu Younga i Yunga: rozprzestrzeniał się przez sieć botnetów Zeus oraz jako załącznik maila, szyfrował wybrane pliki, nie blokując działania komputera i wymuszał płatność w Bitcoinach. Atak rozpoczął się jesienią 2013 i był to pierwszy ransomware, który trafił na topowe nagłówki w mediach pozabranżowych. Jego twórcy zarobili miliony dolarów.

W 2016 pojawił się pierwszy polski ransomware DMA Locker, na szczęście niezbyt udany. 2016 był jednak kolejnym przełomowym rokiem, choć z innego powodu. Badacze zespołu Intela opisali udany atak na firmową domenę. Do tej pory ofiarami szantażystów byli użytkownicy komputerów, procent reakcji nie był wielki, zwykle godzili się z utratą danych lub znajdowali obejście, a w przypadku szantażu donosem na policję; no cóż, szybko rozeszło się, że jest to bzdura. Zaszyfrowane pliki dla osoby prywatnej są problemem, dla firmy to katastrofa. Poza tym firma może zapłacić o wiele więcej.

Również w 2016 po raz pierwszy pojawił się RaaS (Ransomware as a Service) - teraz każdy mógł zostać operatorem ransomware, nie trzeba było mieć nawet botnetu, bo to też można było wynająć. Oferowano przejrzysty interfejs ze statystykami, zarządzeniem grupą i pełnym wyborem narzędzi.

W 2017 po raz kolejny ransomware trafił na nagłówki - robak WannaCry w ciągu ataku trwającego cztery dni zaatakował ponad 200 tys komputerów w 150 krajach i spowodował straty rzędu miliardów dolarów. Przestępcy zarobili relatywnie niewiele, bo 130 tys. dolarów. Ransomware stał się zagrożeniem numer jeden. W wielu organizacjach dopiero wtedy wprowadzono backupy i regularną aktualizację. Coraz częściej zaatakowani odpowiadali przywracaniem zasobów z backupu. W tej sytuacji przestępcy sięgnęli po kolejną broń, groźbę publikacji wycieku. Pojawiły się identyfikowalne grupy przestępcze wymuszające okup wszystkimi dostępnymi metodami - atakowali wybrane organizacje, kradli dane, szyfrowali zasoby i grozili publikacją szczegółów ataku i całej zawartości wycieku. Pierwszą zaatakowaną w ten sposób organizacją był Johannesburg (RPA) w 2019. Ostatnio okazało się, że przestępcy chętnie sięgają do przekupstwa, usiłując przekonać pracowników do zarażenia wewnętrznych sieci organizacji.

Ostatnie lata to profesjonalizacja tej gałęzi przestępczości. Powstają wyspecjalizowane, działające całe lata grupy przestępcze posiadające własne strony w Torze i serwis 24h z chatboksem oraz całą dokumentacją, która wyjaśnia i proces szantażu i płatności Bitcoinem. Takie grupy to np.: Ragnar Locker, MAZE, NetWalker, Pysa, DoppelPaymer, Sekhmet, Clop. Atakowana firma jest przedtem sprawdzana, ważne jest, ile będzie w stanie zapłacić i jaką ma cyberpolisę.

To, że głównym celem przestępców wymuszających okup stały się duże organizacje nie powinno uspokajać zwykłego użytkownika, w żadnej mierze bowiem nie oznacza to, że jest bezpieczniejszy. Po pierwsze atakowane są organizacje, które mają wpływ na jego życie, których jest klientem, pośrednio to jego pieniędzmi płaci się przestępcom. Po drugie ransomware wciąż ewoluuje, wyszukiwane są nowe podatności, nowe metody ataku i komputery domowe nigdy nie zeszły z celownika bandytów.

GSM

Prawie równolegle z WWW powstał GSM, europejski system telefonii komórkowej 2G (cyfrowy) wprowadzony po raz pierwszy w Finlandii w 1991. W przeciwieństwie do Internetu został zaprojektowany z myślą o bezpieczeństwie. Narzędzia kryptograficzne stosowane są na każdym etapie połączenia do sieci i identyfikacji urządzeń. Od karty SIM pojedynczego użytkownika po stację bazową BTS (base transceiver station).

Również przesyłany głos jest szyfrowany rodziną szyfrów strumieniowych A5, od 3G jest to A5/3, którego pełna dokumentacja została opublikowana w 2007.

Koniecznie dodać trzeba, że mimo całego tego wysiłku SMS nie jest bezpieczną formą komunikacji, jest podatny na spoofing, fałszywe SMS-y wątkują się z prawdziwymi, co je uwiarygadnia, a banki nie zrezygnują z tej formy uwierzytelnienia transakcji, bo jest wygodna i tania. Dodatkowo sklonowanie karty SIM nie jest skomplikowanym i trudnym atakiem.

Podpis elektroniczny

Precedensowe przypadki to uznawany w XIX wieku podpis telegraficzny i stosowany od lat 80. podpis faksowy.

Podpis elektroniczny w formie cyfrowej to jedna z najważniejszych aplikacji kryptografii asymetrycznej. Pierwsza umowa międzynarodowa potwierdzona elektronicznie w 1998. Na terenie EU jest ważny do 1999. W polskim prawie istnieje od 2001. Aktualne przepisy regulujące podpis elektroniczny pochodzą z 2016.

W polskim prawie wyróżnia się:

  • zaawansowany podpis elektroniczny, w postaci wybranej przez użytkownika formy podpisu cyfrowego (np. klucz publiczny PGP).
  • kwalifikowany podpis elektroniczny oparty na kwalifikowanym certyfikacie gwarantowanym przez uprawnionego wystawcę zarejestrowanego w Narodowym Centrum Certyfikacji; może identyfikować tylko osoby fizyczne i wystawienie go jest płatne.
  • profil zaufany (eGO) bezpłatna alternatywa podpisu kwalifikowanego przeznaczona do kontaktów z urzędami - ePUAP (Elektroniczna Platforma Usług Administracji Publicznej).

Komunikatory

Pierwszym komunikatorem, który zyskał światową popularność, był trochę dziś już zapomniany ICQ (1996 izraelska firma Mirabilis), w Polsce jego odpowiednikiem był Gadu-Gadu Łukasza Fołtyna istniejący od 2000.

W 2004 ruszył komunikator głosowy Skype, po kilku zmianach właścicieli od 2011 jest własnością Microsoft. Skype był pierwszym komunikatorem, który przynajmniej na początku położył duży nacisk na szyfrowanie komunikacji.

Na początku XXI wieku pewną popularność zdobył XMPP (pierwotnie Jabber) niezależny protokół komunikacji, opisany został w kilku RFC w latach 2004-07. Choć w oryginalnej formie był używany tylko przez entuzjastów skłonnych stawiać własne serwery, to po kilku latach stał się podstawą wielu usług komunikacji tekstowej dostawców usług takich jak Facebook czy Gmail.

Najpopularniejsze komunikatory to Facebook Messenger (ponad miliard użytkowników), kupiony przez Facebooka WhatsApp (ponad dwa miliardy), Telegram (ponad pół miliarda). Podstawowym narzędziem do telekonferencji jest Zoom, który w wyniki pandemii COVID osiągnął ponad dwa miliardy użytkowników. Zoom jest wzorcowym przykładem firmy, która poważnie podeszła do spraw bezpieczeństwa, wszystkie zgłaszane błędy i słabości są systematycznie rozwiązywane. Dotyczy to przede wszystkim zabezpieczenia kryptograficznego.

Dopiero po aferze Snowdena kwestia prywatności komunikacji stała się ważną sprawą dla końcowego użytkownika. W tym sektorze komunikatorów trzeba wymienić dwa:

  • Signal dostępny od 2014, wcześniejsze wersje pod innymi nazwami od 2010. Jest to niezależna inicjatywa, która szczególną uwagę przywiązuje do bezpieczeństwa i tajemnicy komunikacji. Jej zaletą jest duża liczba użytkowników, wynikająca m.in. z umiejętnego korzystania z kontaktów użytkownika bez naruszania jego prywatności.
  • W 2021 po trzech latach badań i eksperymentów dostępny w wersji stabilnej jest Briar. Jest to oprogramowanie nastawione na prywatność i funkcjonowanie w trudnych warunkach, dane komunikacji nie są przechowywane na serwerach, tylko na urządzeniu końcowym, a komunikator łączy się z innymi użytkownikami w trybie peer-to-peer i wystarczy bliskość urządzenia, potrafi łączyć się przez Bluetootha i WiFi więc bezpośrednie połączenie telefonu z internetem nie jest potrzebne. Jest dostosowany do Tora. Wadą jest niewielka liczba użytkowników.

Wydaje się, że Signal stał się nieformalnym, nowym standardem w komunikacji w niektórych branżach wrażliwych na tajemnice takich jak prawnicy czy dziennikarze. Natomiast Briar czeka na lepsze (gorsze?) czasy.

VPN i Tor

Są to dwa zupełnie odmienne rozwiązania, ale warto je omówić razem choćby po to, żeby wskazać różnice. W obu chodzi w zasadzie o to samo - ukrycie całego ruchu między komputerem użytkownika a serwerem dowolnej usługi w tunelu stworzonym przez serwery danej usługi pośredniczące w komunikacji.

Na czym zatem polegają różnice?

VPN

VPN (virtual private network), czyli wirtualna sieć prywatna za pomocą ściśle zdefiniowanych w danej usłudze serwerów tworzy izolowane połączenie tunelujące cały ruch w ramach sieci prywatnej.

VPN w zasadzie zawsze jest płatny, jeśli stawiamy go sami, to płacimy za serwer. Z "darmowych" VPN-ów z założenia lepiej nie korzystać. Czyli VPN-ów jest wiele i zawsze są komercyjne. VPN zawsze ma konkretnego właściciela i zdefiniowaną przez niego architekturę.

Jest ich kilka rodzajów:

  • Sieć firmowa, zamknięta sieć danej organizacji, wydzielona przestrzeń dla pracowników
  • Własny serwer usługi VPN postawiony na własnym serwerze. Mamy możliwość wyjścia do internetu z innego niż udostępniany przez ISP adresu, nie możemy zmieniać lokalizacji.
  • Usługa komercyjna jak to reklamują jej dostawcy, ma zwiększać bezpieczeństwo, chronić jego aktywność w internecie przed wyśledzeniem i powiązaniem z konkretną osobą.

Tu, wszystkim zainteresowanym skorzystaniem z VPN-a polecam obejrzenie podlinkowanego poniżej webinaru Adama Haertle o podejrzanym modelu biznesowym takich usług. W rzeczywistości jedynym sensowym celem użycia VPN jest sfałszowanie lokalizacji IP, nie ma to nic wspólnego z tak reklamowanym w tym przypadku bezpieczeństwem. Jeśli chcemy mieć bezpiecznego VPN-a, musimy postawić go sami - jest to łatwe, wystarczy mieć dostępny serwer. W tym wypadku jednak nie możemy zmieniać IP na wybrany dowolnie kraj.

Tor

Zupełnie czymś innym jest Tor. Opracowany teoretycznie od 1995 United States Naval Research Laboratory (ci sami, którzy pracowali nad IPsec), potem w latach 1997-99 przez DARPA. Twórcy R. Dingledine, N. Mathewson i P. Syverson opublikowali go jako otwarty standard w 2002 w wersji alfa i rok później w wersji beta. W 2004 jego rozwoje zajęła się Electronic Frontier Foundation, w 2006 powstaje The Tor Project, nazwa Tor to skrót od The Onion Router.

Tor używa symbolu i metafory cebuli dlatego, że w jego przypadku mówimy o trasowaniu cebulowym (onion routing). Tor jest ogólnoświatową, niezależną od nikogo i budowaną przez wolontariuszy siecią anonimizującą połączenia internetowe. Użytkownik nie ma żadnej kontroli nad tym z jakich węzłów tej sieci będzie korzystał i z jakiego węzła jego ruch wyjdzie do świata. Istnieją serwisy funkcjonujące tylko w obrębie sieci Tor. Znacznie spowalnia ruch - P2P czy media odpadają. Jest z założenia zdecentralizowany, co do zasady nikt nie sprawuje nad nim kontroli.

Mechanizm jest prosty i skuteczny. Ruch wychodzący z komputera użytkownika jest "zawinięty" w dwie warstwy szyfrowania i w drodze do docelowego serwera przechodzi przez trzy serwery (hopes) Tora. Algorytm dba, by nie należały do tej samej rodziny, ani tej samej podsieci.

  • Pierwszy (entry node) zdejmuje zewnętrzną warstwę i znajduje tam adres pośredniego serwera; wie tylko, skąd przyszło żądanie i dokąd ma je przekierować, nie zna jego treści, ani docelowego serwera.
  • Drugi (relay node) zdejmuje środkową warstwę i znajduje tam adres serwera wychodzącego: zna tylko adres serwera wejściowego i wyjściowego, nie zna ani treści żądania, nie wie nic o komputerze użytkownika ani serwerze, do którego idzie to żądanie.
  • Trzeci (exit node) - jest to najbardziej wrażliwe miejsce struktury - zna tylko adresy serwera środkowego i docelowego w otwartym internecie, ponieważ jest to ruch SSL, nie może zajrzeć do środka, ale ma dostęp do metadanych.

Zwykłe serwery Tor są jawne, ponieważ ich lista jest publicznie dostępna, mogą zostać zablokowane, tak jest np. w Chinach. Do obejścia tego ograniczenia służą tzw. bridge relays, czyli niejawnych serwerów albo wbudowana w Tor Browsera (od wersji 10.5) usługa Snowflake: łączenie przez sieć tymczasowych serwerów proxy za pomocą protokołu peer-to-peer WebRTC.

Obecnie sieć Tora to ponad 6 tys serwerów. Każdy może zgłosić serwer, proces weryfikacji zajmuje wiele miesięcy, Fundacja sprawdza do kogo należą, by sieć nie została "zatruta" większościowym udziałem, co mogłoby doprowadzić do przejęcia kontroli nad siecią. Fundacja jest organizacją publiczną i prowadzi otwartą politykę, lista sponsorów jest publikowana i znajdują się na niej zarówno poważne firmy IT, jak i osoby prywatne. Każdy może zostać sponsorem.

Operatorzy nie śledzą używania Tora. Strony znajdujące się w Torze mogą używać specjalnej domeny najwyższego poziomu .onion. Czasem, najczęściej przy okazji Tora pojawia się pojęcie Darknetu, jest to koncept dziennikarski, żaden Darknet poza Torem nie istnieje i również Tor nie jest takim Darknetem, jakim go rysują szukające sensacji media.

Blockchain i kryptowaluty

Teoretyczne podstawy technologii blockchain znane są od 1991, ale dopiero w pierwszej dekadzie XXI wieku zostały opracowane wszystkie założenia teoretyczne. Ze wszystkich technologii IT ta jest najbardziej "hot" i "trendy". Najkrócej mówiąc blockchain, czyli łańcuch bloków jest zdecentralizowanym, publicznym rejestrem transakcji, zapisywanych i uwierzytelnianych kryptografią asymetryczną. Dokładny sposób działania zależny jest od konkretnego systemu, jego celów, architektury i narzędzi.

Pierwszym historycznie i najprostszym technicznie wdrożeniem jest Bitcoin, który jest już tak znany, że czasem mylony z blockchainem w ogóle. Bitcoin zaistniał w 2008 roku na fali rozczarowania działaniem dotychczasowego systemu finansowego, który w obliczu wielkiego kryzysu przede wszystkim ratował banki. Ludzie odpowiedzialni za kryzys nie ponieśli żadnej odpowiedzialności, instytucje nie zostały zreformowane.

Anarchistyczny, oddolny hacktywizm dał początek wielkiemu eksperymentowi, który zmienia świat. Punkt startowy to był manifest niejakiego Satoshi Nakamoto "Bitcoin: A Peer-to-Peer Electronic Cash System", do dziś nie wiadomo kto kryje się pod tym pseudonimem, najczęściej wskazuje się na Nicka Szabo, kryptologa który od lat zajmował się tą technologią. Bitcoin na początku był ciekawostką, nowinką i różnie oceniano jego przyszłość, po kilku latach jego globalna wartość liczona jest w miliardach dolarów.

Podczas każdej transakcji tworzony jest nowy blok danych, nie jest on potwierdzony, pojawia się i przejmowany jest przez tzw górników (miners), którzy przez rozwiązywanie kryptograficznej, trudnej obliczeniowo zagadki starają się go potwierdzić, ten który zrobi to pierwszy może dołączyć nowy blok do łańcucha, jeśli pojawiają się różne wersje łańcucha wygrywa ta, na którą zgodzi się 51% uczestników systemu. Górnicy dostają premię za wygenerowanie i dołączenie nowego bloku. Zasady działania systemu oparte są na teorii gier, dzięki temu nikomu nie opłaca się działać przeciwko systemowi. Niemodyfikowalność historii i zdecentralizowane zarządzanie trochę przypomina gita.

Wadą Bitcoina i wielu systemów blockchain są ogromne ilości danych oraz zużywanego przez koparki prądu. Koparki to wyspecjalizowane karty graficzne. W tej chwili proces generowania i zarządzania Bitcoinem potrzebuje w ciągu roku 91 terawatogodzin, czyli tyle, co Finlandia, kraj zamieszkały przez ponad 5 mln ludzi. W ciągu ostatnich pięciu lat zużycie prądu przez Bitcoina wzrosło dziesięciokrotnie i osiągnęło pół procenta zużycia globalnego. Dla wykopania jednego Bitcoina potrzeba teraz tyle prądu ile trzynaście gospodarstw domowych potrzebuje w ciągu roku. A Bitcoin nie jest jedyna kryptowalutą. W przypadku Bitcoina pojawił się jeszcze jeden problem - środki za dodanie bloku dostaje ten, kto zrobi to pierwszy, szybkość nie jest wynikiem przypadku, ale mocy obliczeniowej, system sprzyja górnikom mającym przewagę sprzętową. Zachodzi proces centralizacji, mali gracze znaczą coraz mniej, w tej chwili 80% mocy obliczeniowej systemu, a więc i premii ma siedem dużych grup górniczych. Nie są to zdyscyplinowane gangi, a dobrowolne tzw. pule użytkowników.

Bitcoin nie tylko przyczynia się do globalnego ocieplenia, razem ze wzrostem wymagań wobec sprzętu, rosną góry starego, po zużyciu wyrzucanego na śmieci. Ocenia się, że Bitcoin generuje więcej e-śmieci niż niejeden kraj.

Blockchain jest najbardziej znane z kryptowalut, bardzo szybko zaczęły powstawać następne. Przy czym warto zauważyć, że nazwa kryptowaluty (cryptocurrencies) bierze się właśnie z użycia metod kryptograficznych podczas ich wytwarzania i obrotu. Same z siebie nie zabezpieczają anonimowości użytkownika. W przypadku np. Bitcoina wszystkie transakcje da się prześledzić, do tego giełdy kryptowalut wymagają rejestracji.

2011

  • Litecoin jeden z pierwszych odłamów z Bitcoina

2012

  • Ripple

2014

  • Monero, które dzięki rozproszonej architekturze umożliwia anonimowy obieg pieniądza
  • Dash

2015

  • Ethereum nazywane blockchain 2.0, może zawierać smartcontracty, można w nim zapisać dowolne dane
  • Hyperledger, projekt The Linux Foundation, platforma blockchainowa do zastosowań bankowych
  • pierwsze tokeny NFT (non-fungible token)
  • NEM

2016

2017

  • DasCoin, skam

Ciągle powstają nowe zastosowania, np. smartcontrakty jako niezmienna dokumentacja procesów, śledzenie transportu, wybory. Jednocześnie z wielkimi nadziejami i modą na Bitcoina i generalnie na kryptowaluty pojawia się krytyka, m.in. z powodu ogromnego zapotrzebowania na prąd, pamięć i moc obliczeniową. Pojawiły się trojany i złośliwe strony internetowe kopiące na komputerach ofiar. Kryptowaluty są również atakowane z tego powodu, że stały się ulubionym środkiem płatniczym przestępców.

Kryptologia kwantowa

Nie będę udawał, że rozumiem fizykę kwantową. Wszystkim zainteresowanych poznaniem podstaw tej kompletnie nieintuicyjnej, przedziwnej i fascynującej dziedziny wiedzy polecam książkę Marcusa Chowna "Teoria kwantowa nie gryzie". Na magii kwantowego świata wyrosła cała masa dub smalonych, mówi się o "quantum woo" (kwantowym bełkocie, mistyce kwantowej). Do tej dziedziny należy np. komunikacja za pomocą splątanych cząsteczek.

Komputery kwantowe nie są bujdą. Wprawdzie są krytycy, którzy odmawiają obecnie istniejącym konstrukcjom miana komputerów, nikt nie ma wątpliwości, że prędzej czy później takie maszyny powstaną. Są już znane od strony teoretycznej i wiadomo, że będą miały przełomowe znaczenie. Podstawową jednostką informacji w urządzeniach kwantowych jest kubit (qubit aka quantum bit), który może znajdować się w dowolnej superpozycji dwóch stanów kwantowych. Pojęcie to pojawiło się po raz pierwszy w 1995 w pracy "Quantum coding" Benjamina Schumachera, który nawiązał do klasycznej teorii informacji Shannona.

Rok wcześniej w 1994 Peter W. Shor opublikował kwantowy algorytm faktoryzacji, wykazując skuteczność rozkładu liczb naturalnych na czynniki pierwsze (faktoryzacji). To umożliwiłoby wywnioskowanie klucza prywatnego z klucza publicznego, jest to skuteczny atak całą kryptografię klucza publicznego. Pierwszej udanej faktoryzacji dokonano w 2001.

Już w latach 90. XX wieku udało się skonstruować pierwsze kwantowe, bramki logiczne. D-Wave Systems w 2009 zbudowało dla Google komputer kwantowy. Czy rzeczywiście kwantowy, są co do tego kontrowersje. Tak czy inaczej, dokonuje się w tej dziedzinie ogromny postęp, IBM od 2019 udostępnia usługi komputera kwantowego (IBM Q). Prace nad taką maszyną prowadzi - oczywiście! - również NSA.

Komputer kwantowy nie odkryje dla nas Ameryki, nie jest mistycznym skokiem w rozwiązywalność nowej klasy problemów. To taka sama maszyna jak wszystkie inne komputery, tyle że dużo, dużo szybsza. W zasięgu znajdą się problemy dotąd nierozwiązywalne z powodu trudności obliczeniowej. Coś, co wymagałoby wiele lat pracy superkomputerów, da się zrobić z praktycznego punktu widzenia natychmiast.

I tu pojawia się kryptologia i przyczyna zainteresowania NSA. Siła wielu szyfrów zawarta jest właśnie w tym, jak czasochłonne są niektóre obliczenia. Każdy klucz kryptograficzny jest do złamania, jego bezpieczeństwo zawiera się w czasie, jaki jest do tego potrzebny. Jeśli ten czas zmniejszymy jakąś magiczną sztuczką z dziesiątków lat do godzin, wszystkie cyfrowe systemy zabezpieczeń, uwierzytelnień, cała architektura bezpieczeństwa pryska jak bańka mydlana. A taką właśnie magiczną sztuczką okażą się komputery kwantowe. Czy zatem powinniśmy się szykować na kwantową jesień średniowiecza?

Inną dziedziną zagrożoną przez szybkość komputerów kwantowych jest blockchain, nie tylko kryptowaluty, ale cała ta technologia, której stabilność zawarta jest również w przewidywalnej wyliczalności szyfrów RSA i krzywej eliptycznej. Już teraz notowania kryptowalut wyglądają niekiedy jak EEG stanu zawałowego. Czy i w tej dziedzinie nowe maszyny doprowadzą do zgonu pacjenta?

Odpowiedź na te pytania wychodzi nie tylko poza zakres niniejszego wpisu i moich kompetencji. Toczy się na ten temat dyskusja, dzięki Internetowi możemy zapoznać się z opinią specjalistów i jak się wydaje, raczej nie ma wielkich powodów do obaw.

Po pierwsze, zanim powstaną skuteczne komputery kwantowe w skali komercyjnej, upłynie jeszcze wiele lat. Zdążymy się do tego przygotować. Po drugie, żadna z wielkich potęg, która zbuduje je pierwsza (USA, Chiny?) nie jest zainteresowana w doprowadzeniu świata do chaosu. Po trzecie, nowa technologia dostarczy również nowych rozwiązań.

Nadejdą czasy kryptografii kwantowej i niekoniecznie będzie to oznaczało konieczność rozwiązań sprzętowych. Wydaje się bowiem, że już SHA-256 jest bezpieczny i generalnie rzecz biorąc, RSA zniesie rewolucję kwantową lepiej niż kryptografia krzywej eliptycznej. Im więcej wiemy o komputerach kwantowych, tym lepiej możemy się przygotować na czasy "quantum supremacy" i w wielu dziedzinach kryptografii ten proces przygotowania właśnie trwa.

Odnośniki