Jeśli zwróciłeś uwagę na wiadomości w tym tygodniu, mógłbyś usłyszeć coś o prawie Moore'a, wreszcie oddychając ostatnim, rozdrażnionym oddechem. Oczywiście, prawo Moore'a zostało już kilkakrotnie uznane za „martwe”, ale wskrzesiło go nowy rodzaj krzemu, odświeżony proces produkcji diod lub wielka biała nadzieja na obliczenia kwantowe.
Co wyróżnia ten czas?
Blokady dróg nanometrycznych
Prawo Moore'a po raz pierwszy pojawiło się w pierwszych dniach obliczeń, sugerując, że ilość dostępnej mocy obliczeniowej na danym chipie podwaja się co 12 miesięcy. Prawo to pozostało niezmienne do ostatnich lat, ponieważ producenci tacy jak Intel i AMD walczyli z materiałami używanymi do drukowania procesorów (krzemu) oraz z naturą samej fizyki.
Problem, przed którym stoją producenci układów scalonych, leży w świecie mechaniki kwantowej. Przez większość współczesnej historii komputerów prawo Moore'a było stałym, niezawodnym sposobem, dzięki któremu zarówno producenci, jak i konsumenci mogli określić, jak potężni mogą się spodziewać kolejnej linii przyszłych procesorów, w oparciu o technologię swoich poprzedników.
Im mniej miejsca między każdym tranzystorem, tym więcej można zmieścić na jednym układzie, co zwiększa ilość dostępnej mocy obliczeniowej. Każda generacja procesora jest oceniana według procesu produkcyjnego, mierzonego w nanometrach. Na przykład procesory Intel Broadwell piątej generacji mają bramki logiczne o wartości „22 nm”, co oznacza ilość miejsca dostępnego między każdym tranzystorem na diodzie procesora.
Nowsza generacja procesorów Skylake 6. generacji wykorzystuje proces produkcyjny 14 nm, przy czym 10 nm ma zastąpić około roku 2018. Ta oś czasu przedstawia spowolnienie prawa Moore'a do tego stopnia, że nie jest już zgodne z wytycznymi pierwotnie ustalonymi dla to. Pod pewnymi względami można to nazwać „śmiercią” Prawa Moore'a.
Komputery kwantowe na ratunek
W tej chwili istnieją dwie technologie, które mogą potencjalnie przywrócić sprężynę kroku Moore'a: tunelowanie kwantowe i spintronika.
Nie wymagając zbyt technicznej wiedzy, tunelowanie kwantowe wykorzystuje tranzystory tunelujące, które mogą wykorzystać interferencję elektronów w celu zapewnienia spójnych sygnałów przy małych rozmiarach, podczas gdy spintronika wykorzystuje pozycję elektronu na atomie do uchwycenia momentu magnetycznego.
Jednak może upłynąć trochę czasu, zanim którakolwiek z tych technologii będzie gotowa do komercyjnej produkcji na pełną skalę, co oznacza, że do tego czasu możemy zauważyć, że procesory zmieniają zużycie energii w porównaniu do dużej mocy.
Rozwiązania małej mocy
Na razie firmy takie jak Intel powiedziały, że zamiast priorytetowo traktować potrzebę surowej mocy lub prędkości zegara, procesory będą musiały zacząć faktycznie cofać ilość zużywanej mocy na rzecz zwiększenia wydajności.
Jest to zmiana technologii przetwarzania, która ma miejsce już od wielu lat dzięki smartfonom, ale teraz nacisk na włączenie urządzeń takich jak te pod parasolem Internetu przedmiotów w tej samej kategorii zmienia sposób myślenia o Procesory jako całość.
Przewiduje się, że gdy zaczniemy wdrażać coraz więcej technologii wykorzystujących mechanikę kwantową, procesory głównego nurtu będą musiały przez jakiś czas zwolnić, zanim będą w stanie nadrobić zaległości, ponieważ przemysł rozwija się w fazie przejściowej między dwiema generacjami technologii drukowania CPU.
Oczywiście zawsze będzie zapotrzebowanie na procesory, które mogą uruchamiać gry i aplikacje na komputerach stacjonarnych tak szybko, jak to możliwe. Ale ten rynek się kurczy, a ultra wydajne przetwarzanie o niskiej mocy będzie nadal preferowanym wyborem, ponieważ coraz więcej urządzeń mobilnych i urządzeń IoT zaczyna dominować na rynku jako całości.