Jedyną znaczącą zmianą jaka może nas czekać to faktyczne dogadanie się ich z AMD i posprzątanie x86. Największy skok może nas czekać poprzez koniec zaśmiecania procesorów instrukcjami 32 czy 16 bitowymi. Te mogą być wyłącznie emulowane, bo jeśli ktoś tkwi na przestarzałej architekturze to ewentualny paroprocentowy spadek wydajności ewidentnie nie jest jego największym problem.
Oby oby Bo jak się źle dogadają, to będzie powtórka z rozrywki jak to było w przypadku procesorów 80386, ostatecznie Intel przegrał a klony od AMD były lepsze 😎 Szach Mat
Za 5 lat skończy się gwarancja na procesory 13. i 14. generacji. Czy będą one produkowane do tego czasu? Coraz więcej osób ma z nimi problemy, a 95% użytkowników nawet nie wie, czym jest BIOS i go nie aktualizuje, wìęc te procki zaczną padać na potęgę za parę lat.
20:25 - BCLK to nowa technologia i podkręcanie tego powodowało co najwyżej niestabilność całego systemu, włącznie z możliwością błędnego zapisu danych na dyskach. Wcześniej kręciło się procesory poprzez zmianę parametru FSB, czyli głównej szyny transmisji między procesorem a układem pamięci.
@@gogota_ Podkręcanie za pomocą BCLK weszło razem z którąś serią Core ix. Może słowo "nowa" to średnio tu pasuje, ale chodzi mi o to, że to o czym mówi autor pasuje do pokręcania szyną FSB. A za pomocą BCLK nie podkręcało się procesorów, bo nie miało praktycznego przełożenia na wydajność ze względu na to, że ten parametr wpływa na wszystkie najważniejsze komponenty. Włącznie z zegarem systemowym! Podbijanie BCLK ma taki sens jak podbijanie częstotliwości pracy PCI-e. Jedyne co można osiągnąć to niestabilność.
Ale to za te najbliższe dwa lata czy za dwa następujące po tych najbliższych dwóch? ;) Pytam, bo nie wiem ile czasu zajmie Intelowi przejście na ARM ;)
Rdzenie E pozostaną z nami na zawsze. Wszystko idzie już teraz w efektywność energetyczną. AMD zamierza wprowadzić w swoich prockach rdzenie E. Dlaczego? Prosta sprawa, w spoczynku pobierają tyle samo mocy co intele, jak nie więcej. Po drugie, skalowalność, to znaczy chcesz używać mocy dużej, no to pracują rdzenie P, nie chcesz, to uruchamiasz rdzenie E. To tak jakbyś mógł jechać tylko szybko, a tu nagle może zwolnić bo chcesz jechać wolniej i mniej spalać paliwa, podziwiać widoki itd.
tak dokładnie, 18A to wymiar kilkunastu atomów, ale to tylko jeden wymiar a przecież cały tranzystor ma 3 wymiary wieć tych atomów jest tam więcej :D a co do szkła to tylko będzie podstawa jako substrat, sam chip nadal będzie krzemowy, szkoło nie jest półprzewodnikiem nie może wiec być używany do tworzenia z niego tranzystorów :P
Z Intelem jest powoli jak z ślimakiem który idzie pod górkę i sobie śpiewa.. może za rok, może za dwa, może za chwilę. Intel musi zaproponować konkrety, tu i teraz, a nie za rok czy dwa. Komplikujesz z tym zarządzaniem zasilaniem rdzeni, z tym sobie producenci radzą od ponad 40 lat. Problem się pojawia jak się nie wie co się chce i w którą stronę się chce iść, i na tym Intel właśnie wtopił. ArowLake na razie wyglądają średnio, szału ni ma, ale tragedii też nie. Pytanie brzmi, jak życiowe będzie LGA1851. U5 wychodzi niby ciut lepiej od R 7600x3D, U7 ciut gorzej od R 7800x3D, U9 tradycyjnie wychodzi do gier najmniej ciekawie. Intel średnio bierze 10W więcej vs Rayzeny, ale pytanie jak jest podatny na overvolating? NPU.. hmm. do puki nie będzie miał zastosowania, dla kowalskiego, to jest mało przydatny.
@@Technokrata Powiem tak, dla mnie Arow jest tym czym miał być Raptor, tylko spóźniony Z pierwszych testów nie jest źle, ale jakoś nie potrafię znaleźć argumentów za, przynajmniej na dziś. NPU, no fajnie tylko po co mi NPU skoro nic z tego nie korzysta, a jak pojawią się programy które będą to będzie potrzebne NPU wersja 5, a nie 3. Brakuje mi takiej jednoznacznej deklaracji INtela, że na LGA 1851 dostaniemy np. 3 gen proców. Od ponad 2 lat próbuję znaleźć coś ciekawego co zastąpi mi na kolejne 10 lat wysłużone i7-4770K Za chwile pyknie mu 13 rok), i tak kurcze, nic ciekawego nie ma. Tak mam wrażenie że PC-ty doszły do ściany rozwoju, nawet nie dla tego że krzem się kończy, ale soft stał się jednym wielkim śmietnikiem, bez optymalizacji. ARMy depczą x86 po piętach. NIe, nie wydaje mi się, po prostu takie Apple optymalizuje swój soft, a M$ nie, pomijając że nie mają pomysłu na Windę, to żucają co im tam na stołówce z sufitu spadnie. NO niestety taki marazm, rozwojowy mamy..Wyrosłem z czasów kiedy jarały mnie cyferki, i pierdoły.
@@kicha340 Troszkę pan upraszcza, ale z "myślą przewodnią" się zgadzam. Jeśli mogę, to dodam coś od siebie. Apple ni jak się ma do MS, jeśli chodzi o porównywanie optymalizacji, systemu operacyjnego, czy też oprogramowania od firm zewnętrznych, z bardzo prostej przyczyny. Intel produkuje te same procesory od właśnie 3/4 generacji. Poza zmianą ilości styków, kształtu pcb, ilości rdzeni i zegarów, to są to, te same procesory. Tu nawet trudno mówić o ewolucji, a co dopiero o rewolucji. ARM, to troszkę inne zagadnienie, prawdopodobnie nigdy nie zawojują segmentu "wydajnościowego".
Technokrata a w sumie taka zgłoska bo tak wszyscy walczą o ten proces produkcji, już sumie ilość rdzeni zbytnio nie ma znaczenia jak w grach jest tylko wykorzystywanych 8 rdzeni i mało który procesor ma mniej 😉 a i większe zegary wiele nic nie dają w wydajności, tylko jak pokazuje AMD w grach sporo daję większa pamięć podręczna Cache i wkłada 104MB to dla czego INTEL wciąż utknął na poziomie 36MB ?
Byku, koniec pieprzenia, czy może dopiero początek, w ciągu dwóch lat, nie raz się rozgadasz na temat tych procesorów, czekam na kolejne przecieki i rozkminy.