Wyślij wiadomość

Aktualności

March 11, 2021

Więcej danych, więcej problemów ze skalowaniem pamięci

Wspomnienia wszelkiego rodzaju stają w obliczu presji, gdy rośnie zapotrzebowanie na większą pojemność, niższe koszty, większe prędkości i mniejszą moc, aby sprostać napływowi nowych danych, które są generowane codziennie.Niezależnie od tego, czy chodzi o ugruntowane typy pamięci, czy nowatorskie podejście, wymagana jest ciągła praca, aby skalować do przodu, w miarę jak zapotrzebowanie na pamięć rośnie w coraz szybszym tempie.

„Dane to nowa ekonomia tego świata” - powiedział Naga Chandrasekaran, starszy wiceprezes ds. Rozwoju technologii w firmie Micron podczas prezentacji plenarnej na niedawnej konferencji IEDM.

Chandrasekaran podał kilka przykładów ilustrujących eksplozję danych.W przypadku samej opieki zdrowotnej branża wygenerowała 153 eksabajty danych w 2013 r., A liczba ta prawdopodobnie wzrosła 15-krotnie w 2020 r. W użyciu jest również 10 miliardów urządzeń mobilnych, z których każde będzie generować, przechowywać, udostępniać i przesyłać strumieniowo nowe zestawy danych. .W skali globalnej całkowita ilość danych generowanych każdego dnia jest rzędu 2,5 biliarda bajtów, a liczba ta szybko rośnie.

Ta fala danych była głównym motorem wzrostu branży chipów w 2020 r. Na sympozjum strategii branżowej SEMI w tym tygodniu analitycy wskazali, że jest to jedna z największych niespodzianek w dalszym rozwoju branży chipów, pomimo oczekiwań, że liczby wzrosną z powodu pandemii. .

„Pamięć była ważnym elementem” - powiedział Mario Morales, wiceprezes programu ds. Technologii wspomagających i półprzewodników w IDC.„Pamięć wzrosła o 10,8%.Ale NAND urósł o ponad 30%. ”

Wszystkie te dane wymagają pamięci przez cały cykl życia, a prezentacja IEDM przedstawiła trzy główne problemy dotyczące trzech kategorii pamięci: DRAM, NAND flash i nowych technologii.

Wyzwania związane ze skalowaniem pamięci DRAM
DRAM pozostaje kluczowym elementem większości rozwiązań.Jest sprawdzony, tani i ogólnie niezawodny.Ale jest też daleki od ideału.Trzy kwestie, na które zwrócono uwagę na IEDM, dotyczą młota wiercącego, marginesu wyczuwania i stosu bramek.

„Po stronie urządzenia DRAM z ciągłym skalowaniem bocznym stoimy przed wyzwaniami związanymi z młotkiem rzędowym, który jest szeroko znanym zjawiskiem, w którym, gdy wiersz słowa jest nieustannie adresowany [to znaczy jest wbijany], ładunek ma tendencję do gromadzenia się w miejscach pułapek na interfejsie - powiedział Chandrasekaran Microna.„Później, gdy te ładunki są uwalniane, w wyniku dyfuzji dryfu, migrują do sąsiednich bitów i skutkują wzrostem ładunku.Może to spowodować mechanizm utraty danych i może stanowić wyzwanie dla bezpieczeństwa ”.

Dryfujące ładunki powoli zaburzają zawartość sąsiednich komórek - trochę z każdym dostępem.Po wystarczającej ilości razy w krótkich odstępach czasu komórki ofiary mogą stracić swój stan przed następnym cyklem odświeżania.

Wendy Elsasser, wybitna inżynier w Arm, zgodziła się z tym.„Młotek udarowy pozostaje poważnym problemem związanym z bezpieczeństwem i został udokumentowany w wielu artykułach na temat tego, jak bity mogą się odwracać, aby uzyskać dostęp do bezpiecznych obszarów pamięci” - powiedziała.

Nie jest to nowy problem, ale podstawowy problem pogarsza się z każdym pokoleniem.„Gdy skalujemy pamięć DRAM za pomocą skalowania planarnego, efekt sąsiedniej komórki może stać się efektem bliskiej sąsiedniej komórki, a wpływ na więcej komórek ma tendencję” - powiedział Chandrasekaran.„A ten problem tylko się pogarsza, ponieważ nadal skalujemy cieńsze pamięci DRAM”.

Ponieważ był to trudny problem do całkowitego wyeliminowania, rozwiązania skupiały się na kontroli - albo wydaniu wczesnego odświeżania w celu przywrócenia osłabionych komórek, albo zapobieganiu dalszemu dostępowi po osiągnięciu limitu.JEDEC dodał kilka trybów i poleceń, koncentrując się zarówno na układzie DRAM, jak i kontrolerze DRAM, ale są to środki zaradcze, a nie rozwiązanie problemu pierwotnej przyczyny.

Logikę można dodać do samej pamięci DRAM, aby wykryć możliwe ataki, a twórcy pamięci IP pracowali nad zbudowaniem silniejszych zabezpieczeń.„Wydajemy logikę sprzętową, aby wykrywać takie dostępy, a następnie aktywnie ograniczamy dostęp do tych wierszy” - zauważył Vadhiraj Sankaranarayanan, starszy kierownik ds. Marketingu technicznego w Synopsys.„Ale to nie jest tak efektywne pod względem wydajności.Alternatywą byłoby proaktywne odświeżanie wierszy sąsiadujących z tymi, które są wbijane ”.

Ze względu na wydajność i moc część odpowiedzialności za wykrywanie ataków została przeniesiona na kontroler.„Istnieje wiele technik, które można zastosować w kontrolerze, ponieważ kontroler jest tym, który organizuje ruch przychodzący do kanału” - dodał Sankaranarayanan.

Jeśli chodzi o pierwotną przyczynę, trwają prace inżynieryjne nad ulepszaniem komórek, ale coraz węższe komórki sprawiają, że jest to ciągłe wyzwanie - zwłaszcza w połączeniu z koniecznością utrzymania rozsądnych rozmiarów matryc i zminimalizowania wszelkich dodatkowych kosztów przetwarzania lub materiałów.

Kolejnym wyzwaniem przy skalowaniu pamięci DRAM jest zawężenie marginesu wzmacniacza zmysłu.„Margines czułości zmniejszy się, gdy zmniejszy się pojemność ogniwa, co zmusza nas do zwiększenia współczynnika kształtu i wprowadzenia nowych materiałów” - powiedział Chandrasekaran.„Ale nawet w przypadku najbardziej idealnego materiału dielektrycznego - szczeliny powietrznej - charakterystyka rezystancji / pojemności linii bitowej będzie kwestionowana podczas skalowania, ponieważ między dwiema liniami bitów prawie nie ma odstępu.A to ogranicza to, jakie materiały dielektryczne możemy włożyć, i ostatecznie kwestionuje nasz margines zmysłów. ”

Ponadto mniejsze tranzystory prowadzą pośrednio do zmniejszonego marginesu czułości.„W miarę zmniejszania się obszaru tranzystora we wzmacniaczach czułości, abyśmy mogli uzyskać lepszą wydajność macierzy, wahania napięcia progowego wzrosną” - powiedział.Jest to szczególne wyzwanie dla obwodów analogowych i będzie wymagało ciągłej pracy w celu dalszego skalowania.

Skalowanie za pomocą tradycyjnego, niedrogiego stosu bramek DRAM również wiąże się z problemami z zasilaniem i wydajnością.„Wysokowydajna bramka polikrystaliczno-krzemowa CMOS z technologią tlenku azotku krzemu stanowi główny nurt w branży DRAM od dziesięcioleci” - powiedział Chandrasekaran.„Jest dobrze znany i jest bardzo dobrym rozwiązaniem kosztowym.Jednak stoi przed kilkoma wyzwaniami, jeśli chodzi o spełnienie wymaganego skalowania EOT (równoważnej grubości tlenku) w celu uzyskania mocy i wydajności.

Alternatywnym rozwiązaniem jest CMOS z bramką o wysokim współczynniku K i z bramką metalową.Obie te technologie były powszechne w świecie technologii logicznych i stanowią atrakcyjną opcję skalowania pamięci CMOS.Zapewni to również lepszą charakterystykę napędu, mniejszą zmienność i dopasowanie tranzystora.

Ale to nie tylko prosta kwestia przełączania procesów.Przyjęcie tej technologii w pamięci będzie wymagało starannej inżynierii urządzeń, aby umożliwić korzystanie z urządzeń peryferyjnych i brzegowych oraz mieć dobrą kompatybilność z integracją macierzy.A wszystko to musi się wydarzyć, zachowując pożądaną przystępność cenową DRAM.

Wyzwania związane ze skalowaniem flash 3D
Przejście od płaskiej pamięci flash NAND do trójwymiarowej pamięci flash na razie złagodziło problem posiadania zbyt małej ilości zmagazynowanych elektronów, zwiększając rozmiar komórki w nowej orientacji.Jednak wraz ze wzrostem liczby warstw - już w setkach - prąd stringów, zintegrowane tranzystory CMOS i wytrzymałość fizyczna będą wymagały uwagi.

Bieżący ciąg znaków jest flagowany, gdy ciąg staje się dłuższy.„Zwiększenie skalowania pionowego z pewnością będzie wyzwaniem dla prądu strun i utrudni wykrywanie” - powiedział Chandrasekaran.Prąd strunowy musi przepływać w dół przez warstwy, a następnie z powrotem w górę.Im więcej warstw, tym dłuższa i bardziej oporna jest ta ścieżka, obniżając prąd.

Szczególnym wyzwaniem jest fakt, że materiał kanału jest polikrzemem o zmniejszonej ruchliwości i silnej zależności od wielkości ziaren i gęstości pułapki.„Kontrolowanie wielkości ziarna w tych strukturach o wysokim współczynniku kształtu jest dużym wyzwaniem.Dlatego potrzebne są nowe sposoby osadzania i leczenia ”- powiedział Chandrasekaran.

Alternatywnie, nowe materiały mogą pomóc w utrzymaniu prądu struny w stanie nienaruszonym.„Jest kilka nowych materiałów, które są również rozważane jako alternatywne materiały kanałowe, które prawdopodobnie poprawią prąd strun” - powiedział.„Ale stwarzają również nowe wyzwania w zakresie mechanizmów niezawodności i samych właściwości ogniw”.

Dalsze skalowanie odstępów między rzędami (które jest pionowe) również może pomóc, ale zmniejsza rozmiar komórki, cofając się w kierunku przechowywania zbyt małej liczby elektronów.W końcu osiągnie to limit i zmniejszy przewagę wynikającą z większego rozmiaru komórki w 3D NAND, jeśli wysokość linii słów będzie nadal się skalować.„Na dłuższą metę zabraknie miejsca na komórkę i będziemy musieli stawić czoła takim samym wyzwaniom jak planarna NAND z efektami kilkuelektronowymi” - powiedział.

W międzyczasie istnieje potrzeba przejścia na bardziej zaawansowane przetwarzanie CMOS dla obwodów peryferyjnych, aby nadążały one za wymaganą mocą i wydajnością.Odpowiada to potrzebie przejścia do bramek metalowych o wysokim Κ w DRAM - co pociąga za sobą potrzebę starannego projektowania urządzeń w celu spełnienia wymagań zarówno komórek pamięci, jak i logiki.

I wreszcie, gdy dodaje się więcej warstw, wyzwaniem staje się utrzymanie wystarczająco cienkiej matrycy do zastosowań niskoprofilowych, takich jak telefony komórkowe - przy jednoczesnym zachowaniu wystarczającej ilości silikonu dla solidnej obsługi.„W ciągu następnych kilku generacji, aby spełnić wymagania dotyczące współczynnika kształtu i opakowania dla rozwiązań mobilnych, grubość aktywnych urządzeń na wierzchu krzemu będzie większa niż grubość samego krzemu” - powiedział Chandrasekaran.„Stwarza to nowe wyzwania związane z obsługą zaplecza, a wypaczanie płytek staje się dużym problemem.Wytrzymałość matrycy i obsługa płytek będzie nowym wyzwaniem, które napędza rozwój technologii zaplecza ”.

Pojawiające się wyzwania związane z pamięcią
Liczne technologie rywalizują o miano kolejnej dużej pamięci nieulotnej.Obejmują one pamięć ze zmianą fazy (PCRAM), rezystancyjną pamięć RAM (RRAM / ReRAM), magnetorezystywną pamięć RAM (MRAM), a na wcześniejszym etapie rozwoju ferroelektryczną pamięć RAM (FeRAM) i skorelowaną elektronową pamięć RAM (CERAM).Chociaż PCRAM osiągnął sukces produkcyjny w pamięciach krzyżowych Intela, a STT-MRAM obserwuje zwiększoną integrację, żadna z tych technologii nie może dziś rościć sobie rangi solowego płaszcza kolejnej wielkiej rzeczy.Główne wyzwania w dużej mierze dotyczą niezawodności i wykorzystania nowych materiałów.

MRAM jest jednym z najbardziej obiecujących uczestników tego wyścigu.„MRAM to rodzaj pamięci, który wykorzystuje stany magnetyczne materiałów do przechowywania informacji, co bardzo różni się od pamięci opartych na ładunkach, takich jak DRAM i flash” - wyjaśnił Meng Zhu, kierownik ds. Marketingu produktu w KLA.Choć może się to wydawać proste, MRAM są również trudniejsze do zbudowania niż istniejące wspomnienia ze względu na cienkie warstwy i różne materiały użyte w tych warstwach.

Podobnie PCRAM opiera swoją komórkę na chalkogenidach.RRAM zależą od cienkiego materiału izolacyjnego.FeRAM potrzebuje materiałów, które mogą przejść w stan ferroelektryczny.CERAM jest na tyle wcześnie w rozwoju, że jego skład nie jest jeszcze dobrze ugruntowany, ale nowe materiały i delikatny montaż są prawdopodobne.

Pytanie dla wszystkich tych nowych typów pamięci brzmi: jak wytrzymają one w czasie i przy milionach operacji odczytu / zapisu.„Wiele z wiodących, pojawiających się rozwiązań pamięciowych staje w obliczu nowych wyzwań związanych z mechanizmami niezawodności, które należy zrozumieć” - powiedział Chandrasekaran.

MRAM, znajdujący się dalej niż niektóre inne technologie, stanowi dobry przykład rodzajów szczegółów, które mają znaczenie.„Głównym mechanizmem awarii MRAM jest zużycie cienkiej bariery MgO” - powiedział Zhu.„Gdy bariera ma wady, takie jak dziury lub słabe punkty materiału, opór złącza może stopniowo zmniejszać się z upływem czasu i może również prowadzić do nagłego spadku oporu (przebicia)”.

Pozostałe typy pamięci nie zidentyfikowały jeszcze własnych mechanizmów niezawodności i nie zarządzają nimi.Kwestie trwałości i zatrzymywania danych wciąż istnieją, a ewolucja odporności komórek w czasie ma kluczowe znaczenie - zwłaszcza gdy rozważa się wykorzystanie komórek w pamięciach analogowych do zastosowań takich jak przetwarzanie w pamięci do uczenia maszynowego.

Co więcej, wiele z tych nowych komórek pamięci jest wrażliwych na temperaturę, a ich materiały mogą nie współdziałać dobrze z niektórymi dobrze znanymi gazami i innymi chemikaliami tradycyjnie używanymi w procesie półprzewodnikowym.

„Większość materiałów używanych w tych zaawansowanych rozwiązaniach pamięciowych jest wrażliwych na temperaturę i chemikalia” - powiedział Chandrasekaran.„Wymaga to wprowadzenia procesów niskotemperaturowych i kontroli otoczenia w naszych fabrykach, a także ogranicza użycie dobrze znanych gazów i chemikaliów, ponieważ mają one tendencję do reagowania z materiałami ogniw i wpływają na ich wydajność.Takie ograniczenia nie tylko utrudnią przetwarzanie tych materiałów, ale także zwiększą koszty ”.Zdefiniowanie przepływu, który zarówno wykorzystuje niższe temperatury, jak i zapobiega chemicznej degradacji komórek, będzie konieczne, aby wspomnienia te mogły wejść do głównego nurtu.

Chociaż lista wyzwań przedstawionych na IEDM w żadnym wypadku nie jest wyczerpująca, przedstawia branży zbiór trudnych ulepszeń, które należy wprowadzić, aby utrzymać skalowanie w tempie, które może nadążać za zmieniającymi się wymaganiami systemowymi.Więcej danych wymaga więcej przetwarzania i więcej pamięci, a istnieje wiele sposobów rozwiązania tego problemu.Ale żadne jedno podejście nie rozwiąże wszystkich problemów, a ponieważ generowanych jest więcej danych i wprowadzanych jest więcej typów pamięci, pojawią się dodatkowe problemy, których jeszcze nie odkryto.

Szczegóły kontaktu