Gospodarka

Narodziny GPU: triumf, który niemal pogrzebał Nvidię

Opowieść o tym, jak Nvidia wynalazła GPU, podbiła serca graczy i największe firmy technologiczne, a potem omal nie pogrzebała własnego sukcesu

GeForce 256 nie był tylko kolejnym układem – to był manifest. Nvidia ochrzciła go pierwszym „GPU”, zmieniając reguły gry i język całej branży. Od tego momentu firma rosła w siłę, zdobywając Apple, Microsoft i serca graczy. Ale wraz z NV30 przyszła brutalna nauczka: innowacja bez dyscypliny i kultury potrafi obrócić się w katastrofę.

Nieniejszy fragment jest 7 rozdziałem książki Nvidia – droga do sukcesu. Jak Jensen Huang stworzył technologicznego giganta, która została wydana przez wydawnictwo Prześwity.

W swojej słynnej książcePRZEŁOMOWE INNOWACJE nieżyjący już profesor Harvard Business School, Clayton Christensen, stwierdził, że sukces firmy często zawiera ziarna jej klęski – i że zjawisko to jest zauważalne zwłaszcza w branży technologicznej. Sugerował, że rozwój każdego przemysłu następuje nie w wyniku przypadkowych zdarzeń, ale jest efektem regularnych i przewidywalnych cykli.

Najpierw start-up wprowadza na rynek nową, przełomową innowację, która ma mniejsze możliwości zdobycia wielu klientów aniżeli oferta lidera rynku pozycjonowana w segmencie tanich towarów. Potentat rynkowy ignoruje mniej dochodowe segmenty rynku, skupiając się na produktach, które zapewniają mu stałe duże przychody i wysokie zyski.

Po jakimś czasie z reguły pojawiają się nowe możliwości stosowania innowacyjnego produktu pretendenta, przy czym start-up zazwyczaj poprawia i doskonali swoją ofertę szybciej niż duża i od dawna obecna na rynku firma. Koniec końców start-up będzie mieć lepszy produkt i zanim dotychczasowy potentat zda sobie z tego sprawę, będzie już za późno. Christensen podał przykład firmy Control Data, która była liderem rynku 14-calowych dysków twardych do komputerów typu mainframe i nie zdobyła nawet 1 procenta rynku 8-calowych dysków twardych dla minikomputerów. Podobnie było z producentami 8-calowych napędów po pojawieniu się 5,25-calowych i 3,5-calowych napędów. Za każdym razem cykl się powtarzał i kolejna fala potentatów przegrywała z pretendentami (start-upami).

Przełomowe innowacje to jedna z ulubionych lektur Jensena. Ta książka zwiększyła jego determinację, aby taki los nie spotkał Nvidii. Wiedział, że konkurentom trudno będzie rywalizować z Nvidią w odniesieniu do chipów z górnej półki, ponieważ wyścig w tym segmencie wymagał ogromnych inwestycji kapitałowych i zespołu utalentowanych inżynierów. Pod wpływem Christensena uznał, że zagrożenie może nadejść ze strony graczy oferujących tanie chipy.

Już to widziałem – powiedział. My budujemy Ferrari. Wszystkie nasze chipy zostały zaprojektowane jako produkty z górnej półki. Najwyższa wydajność, najszybsze teksturowanie trójkątów i wielokątów. Nie chcę, aby ktoś stał się liderem cenowym i odciął mi dostęp do dolnego segmentu rynku, aby następnie wspinać się do góry.

Analizował strategie biznesowe innych wiodących firm w poszukiwaniu inspiracji, jak odeprzeć atak z dołu. Przyglądając się produktom Intela, zauważył, że procesory (CPU) z serii Pentium miały określone zakresy częstotliwości taktowania – podstawowego parametru określającego ich wydajność – ale tę samą architekturę chipa i teoretycznie te same funkcje i możliwości.

Intel po prostu wytwarza tę samą cholerną część. Sprzedają klientom różne produkty, segregując je według częstotliwości” – stwierdził, mając na myśli proces, w którym procesory, które nie przeszły kontroli jakości przy wysokich częstotliwościach, mogą być wykorzystane jako w pełni funkcjonalne procesory przy częstotliwościach niższych.

Jensen pojął, że Nvidia może przestać wyrzucać chipy, które nie przeszły kontroli jakości. Prawda, te „wadliwe” chipy nie mogły być oferowane klientom jako produkty klasy Ferrari. Jeśli jednak były w pełni funkcjonalne przy niższych częstotliwościach, Nvidia mogła oferować je jako mniej wydajną (a zatem tańszą) wersję produktów firmy. Takie działanie oznaczałoby zwiększenie liczby nadających się do użytku chipów z każdego wafla krzemowego i polepszenie uzysku z produkcji, stanowiącego miarę jej efektywności.

Podczas spotkania menedżerów wyższego szczebla Jensen zapytał dyrektora do spraw produkcji:

Jaki jest nasz koszt pakowania, testowania i montowania pojedynczego chipa?.

Odpowiedź brzmiała: 1,32 dolara, co było małą kwotą w kosztownym świecie wytwarzania chipów.

To wszystko? – zapytał niedowierzająco Jensen.

Wyglądało to jak oczywista możliwość uzyskania czegoś z niczego. Odrzucone chipy nie przynosiły Nvidii żadnego przychodu, ponieważ pozbywano się ich. Wydając nieco więcej na ulepszenie odrzuconych chipów, Nvidia mogła stworzyć zupełnie nową linię produktów przynoszącą zysk bez kosztownego i czasochłonnego procesu badań i rozwoju. Ta oferta stanowiłaby obronę przed konkurentami, których głównym produktem były tańsze chipy z dolnej półki. Wykorzystując te uzyskane niskim kosztem chipy, Nvidia mogła łatwo obniżyć ich cenę do poziomu, przy którym konkurenci zostaliby zmuszeni do sprzedawania swoich chipów poniżej kosztów. Mogła nawet ponosić straty na swoich tańszych chipach, gdyż sprzedaż chipów klasy Ferrari z nawiązką kompensowałaby te straty. Co ważniejsze, Nvidia uniknęłaby pułapki, w którą wpadł jej były rywal, firma 3dfx, która musiała przeznaczać tak dużo czasu i funduszy na projektowanie nowych chipów, że przestała się liczyć w niekończącym się wyścigu innowacji.

Tej strategii nadano nazwę „wykorzystaj całą krowę”, w nawiązaniu do tego, jak rzeźnicy potrafią wykorzystać prawie każdą część tuszy wołu, od nosa do ogona – a nie tylko najlepsze kawałki mięsa, takie jak polędwica czy żeberka.

Takie działanie stanowiło potężne narzędzie i umożliwiło dopasowanie naszej oferty do potrzeb klientów. Mogliśmy wytwarzać chipy z górnej półki na linii produkcyjnej z niskim uzyskiem i mieć cztery lub pięć różnych produktów w ofercie. Pomogło to w uzyskaniu wyższej średniej ceny sprzedaży – powiedział Jeff Fisher.

Dodatkowo pozwoliło to Nvidii testować popyt na droższe produkty z najwyższej półki dla entuzjastów gier komputerowych, którzy byli skłonni płacić więcej za wyższą wydajność.

Inne firmy w branży chipów do grafiki komputerowej wkrótce poszły śladem Nvidii, zwłaszcza gdy strategia „wykorzystaj całą krowę” prawie doprowadziła do upadku jednego z konkurentów, firmę S3 Graphics.

Strategię „wykorzystaj całą krowę” branża uważa obecnie za coś oczywistego, ale swego czasu to była ważna zmiana w modelu biznesowym, która miała ogromne znaczenie – powiedział członek zarządu Nvidii, Tench Coxe.

Świadczyła ona o strategicznej przezorności Jensena i jego nieustających staraniach, by przewidywać, co może zagrozić przyszłości Nvidii. Wszak Nvidia była raczej liderem rynku, a nie jednym z wielu start-upów. Jensen wiedział, że na plecach już na stałe ma tarczę strzelniczą.

To nie jest tak, że myślę, iż konkurenci próbują mnie zniszczyć. Wiem, że próbują to zrobić – powiedział kiedyś.

JENSEN WIEDZIAŁ, ŻE PARAMETRY TECHNICZNE jako takie nie sprzedają chipa. Marketing i kreowanie marki są równie ważne. Konkurenci mieli różne podejścia do pozycjonowania swoich produktów na rynku. Niektórzy kreowali swoje marki za pomocą dziwacznych, supermęskich nazw odwołujących się do wyobraźni i upodobań graczy, takich jak Voodoo Banshee firmy 3dfx, Rage Pro firmy ATI czy Savage firmy S3. Inni stosowali bardziej techniczne lub przemysłowo brzmiące nazwy, takie jak G200 firmy Matrox czy Verite 2200.

Nvidia zdecydowała się na kompromis, wybierając nazwy, które miały przekazywać informację o technicznej doskonałości i rezonować emocjonalnie, takie jak RIVA TNT – przy czym RIVA to był skrót od Real-time Interactive Video and Animation Accelerator (akcelerator interaktywnego wideo i animacji w czasie rzeczywistym), a TNT oznaczało TwiN Texels, czyli zdolność chipa do przetwarzania dwóch tekseli (najmniejszych, dyskretnych punktów tekstury) w tym samym czasie. Jednak przeciętnemu użytkownikowi skrótowiec TNT kojarzył się, oczywiście, „z czymś dotyczącym eksplozji”, jak ujął to jeden z inżynierów.

Ponieważ rynek kart graficznych był zatłoczony, aby jeszcze bardziej się wyróżnić, Nvidia postanowiła nagiąć swoje zasady. W 1999 roku wprowadziła na rynek następcę chipa RIVA TNT2 o nazwie GeForce 256. Niezaprzeczalnie GeForce 256 stanowił znaczący postęp pod względem możliwości graficznych, co w tym czasie było już typowe i czego oczekiwano od każdej nowej generacji chipów Nvidii. Chip GeForce miał cztery potoki graficzne, co umożliwiało jednoczesne przetwarzanie czterech pikseli. Ponadto miał zrealizowany sprzętowo silnik transformacji i oświetlenia, pozwalający wykonywać obliczenia niezbędne do przesuwania, obracania i skalowania obrazów 3D. Te zadania były zazwyczaj realizowane przez procesor, a GeForce 256 uwolnił CPU od tych obliczeń, dzięki czemu komputer działał szybciej.

Stosując specjalizowane rozwiązanie sprzętowe, można było teraz dużo szybciej przetwarzać grafikę trójwymiarową i generować dużo ciekawsze obrazy – powiedział były główny naukowiec Nvidii, David Kirk.

Szefostwo firmy uznało, że nazwa GeForce 256 będzie zbyt techniczna dla klientów. Panowało przekonanie, że ten skrótowiec i liczba, używane wewnątrz firmy, nie przyjmą się na rynku. Do promowania swojego nowego produktu Nvidia potrzebowała atrakcyjnej nazwy.

Musieliśmy znaleźć sposób na pozycjonowanie tego produktu jako procesora graficznego do grafiki 3D dużo lepszego niż cokolwiek innego dostępnego na rynku. Ten chip jest fantastyczny. Ma świetne teksturowanie oraz silnik transformacji i oświetlenia. Musi mieć wysoką cenę. Musimy znaleźć nazwę, która wyrazi, jak wspaniały jest ten chip – powiedział Dan Vivoli.

Postawił przed zespołem marketingowym zadanie znalezienia genialnej nazwy.

Menedżer produktu, Sanford Russell, rozpoczął eksplorowanie możliwych pomysłów. Russell uwielbiał testować strategię kreowania marki, nadania nazwy i pozycjonowania ze współpracownikami, w tym z Jensenem i Kirkiem.

Nigdy nie było tak, że wchodziłem do pokoju z PowerPointem i gotową nazwą. Szukanie nazwy oznaczało ciągłą dyskusję. Pytaliśmy o technologię. O to, co chip potrafi. I o to, czego nie potrafi – stwierdził Russell.

Russell wciągnął Michaela Harę w półgodzinną sesję burzy mózgów w poszukiwaniu bardziej skutecznego sposobu promowania GeForce 256. Obaj pamiętają, że wyszli z pokoju z pomysłem nazwania chipa pierwszym produktem należącym do całkowicie nowej kategorii: procesorów graficznych, czyli GPU (graphics processing unit), które dla renderowania grafiki 3D miały być tym, czym procesor (CPU) był dla wszystkich innych obliczeń komputerowych.

Inżynierowie w Nvidii wiedzieli, że ich chipy były wyjątkowe. Jednak typowy użytkownik nie doceniał złożoności ani wartości chipa graficznego. W odróżnieniu od procesora (CPU), który był postrzegany jako główny element każdego komputera, karty graficzne były traktowane jako jedno z urządzeń peryferyjnych. Nadanie chipom graficznym specjalnej nazwy, która miała je po raz pierwszy przyrównywać do CPU, wyróżniłoby je jako coś prawdziwie wyjątkowego.

Pamiętam, że Mike Hara i ja byliśmy w pokoju, gdy pojawił się pomysł z GPU. Wtedy nie wydało nam się to specjalnie ważne. Pracowaliśmy po czternaście godzin na dobę – powiedział Russell.

Wkrótce podzielił się jednak pomysłem dotyczącym procesora graficznego z Vivolim, któremu to się spodobało.

Dan niekiedy potrzebował trochę czasu, aby przetrawić jakąś ideę, ale pomysł z GPU rozprzestrzenił się w firmie dość szybko.

W ciągu kilku dni marketingowcy przekonali się do pomysłu procesora graficznego, który nie tylko pomógł Nvidii wyróżnić się spośród grona producentów chipów graficznych, ale także ułatwił sprzedaż jej chipów po wyższej cenie. Świat rozumiał, że procesory (CPU) musiały kosztować kilkaset dolarów. Chipy Nvidii były sprzedawane w hurcie za mniej niż 100 dolarów za sztukę, mimo że były równie złożone jak procesory i miały więcej tranzystorów niż CPU. Wraz z rozpoczęciem przez Nvidię marketingu jej chipów jako procesorów graficznych różnica w cenie między CPU a GPU znacząco zmalała.

Mimo to przydomek GPU w odniesieniu do GeForce 256 budził kontrowersje wśród inżynierów Nvidii, wskazujących, że ten chip nie mógł być nazywany procesorem graficznym, ponieważ nie miał kilku cech typowych dla procesorów. Przede wszystkim chip nie był „maszyną stanową”. To techniczne określenie dotyczy procesora, który wykonując instrukcje, może zmieniać się z jednego stanu w drugi w odpowiedzi na pewne dane wejściowe, tak jak robi to CPU, przetwarzając zaprogramowane instrukcje. GeForce 256 nie był programowalny, w tym znaczeniu, że programiści w firmach zewnętrznych, tworzący gry i inne aplikacje, nie mogli łatwo zmieniać właściwości grafik, ponieważ musieli polegać na ustalonym zestawie funkcji realizowanych przez Nvidię sprzętowo. Co więcej, GeForce 256 nie miał swojego własnego języka programowania.

Marketingowcy wskazywali jednak, że takie cechy były planowane dla następnej generacji chipów graficznych. A nawet bez nich GeForce 256 oznaczał tak dużą zmianę w wydajności, że będzie to oczywiste dla każdego gracza i miłośnika komputerów na całym świecie. Choć chip GeForce 256 nie spełniał wszystkich wymagań procesora graficznego, można było twierdzić, że był produktem definiującym nową kategorię produktów. Chipy następnej generacji – „prawdziwe” procesory graficzne, które będą mogły być programowane przez programistów w firmach zewnętrznych – już czekały w kolejce.

Koniec końców, mimo protestu inżynierów, marketingowcy Nvidii zdecydowali się promować nazwę GPU.

„Nie potrzebujemy niczyjej aprobaty” – powiedział Vivoli inżynierom. Uważał, że nikogo spoza branży chipów graficznych nie będzie interesować spór o techniczną definicję procesora graficznego. Poza tym „wiedzieliśmy, że następna generacja będzie programowalna. Postanowiliśmy dać susa i w odniesieniu do GeForce 256 nieco naciągnąć definicję GPU”.

Oznajmiając w sierpniu 1999 roku wprowadzenie GeForce 256 na rynek, Jensen nie stronił od przesady.

Przedstawiamy pierwszy na świecie GPU. GPU stanowi wielki przełom w branży i zasadniczo zmieni świat grafiki 3D. Dzięki niemu narodzi się nowa generacja zdumiewających interaktywnych treści: pełnych życia, kreatywnych i zniewalających– oświadczył w komunikacie prasowym

Chyba po raz pierwszy, wprowadzając na rynek nowy produkt, firma zaangażowała się tak zdecydowanie w jego marketingowe upiększenie – i to zadziałało. Vivoli podjął decyzję, aby nie chronić „GPU” jako znaku towarowego, ponieważ chciał, aby inne firmy także używały tego określenia, co miało wzmacniać przekaz, że Nvidia stworzyła zupełnie nową kategorię produktów. Przesada stała się rzeczywistością: przydomek GPU stał się standardem w branży i pomógł Nvidii w następnych dziesięcioleciach w sprzedaży setek milionów kart graficznych.

Premiera GPU miała umożliwić Vivoliemu osiągnięcie jeszcze jednego zamiaru: zastraszenia konkurentów. Polecił zawiesić baner reklamujący GeForce 256 na wiadukcie na autostradzie prowadzącej wprost do siedziby 3dfx (działo się to przed bankructwem tej firmy). Baner informował, że nowy GPU Nvidii zmieni świat i zmiażdży konkurencję. Policja stanowa szybko usunęła baner, ponieważ został on umieszczony na wiadukcie nielegalnie, a Nvidia otrzymała oficjalną naganę. Niemniej cel został osiągnięty. „To było jak ze Sztuki wojny. Chcieliśmy ich zniechęcić” – powiedział Vivoli. Nvidia uczyła się, jak narzucać światu swoją wolę.

WSPÓŁCZESNE CHIPY GRAFICZNE wykorzystują technologię określaną jako potok graficzny (ang. graphics pipeline), która umożliwia przetwarzanie danych geometrycznych opisujących współrzędne obiektu w obraz. Pierwszy etap tego procesu, nazywany krokiem geometrii, służy przekształceniu wierzchołów obiektu (punktów) w wirtualną przestrzeń 3D (trójwymiarową) za pomocą skalowania i rotacji. Drugi etap to rasteryzacja, czyli przedstawienie figur geometrycznych w formie pikseli i określenie ich położenia na ekranie. A trzeci etap to określenie koloru i tekstur. Etapem końcowym jest stworzenie obrazu.

Wczesne potoki graficzne składały się ze sztywno określonych funkcji realizowanych sprzętowo. Nvidia, podobnie jak inni wytwórcy chipów, określała, w jaki sposób jej chipy będą realizować te cztery etapy w potoku graficznym. Programiści z zewnętrznych firm, tworzący gry i inne aplikacje, nie mogli zmienić techniki renderowania zaprojektowanej dla danego chipa; mogli kreować efekty wizualne i style artystyczne jedynie przy użyciu zbioru funkcji udostępnionych przez projektantów danego chipa. Ponieważ każdy programista mógł korzystać tylko z tych samych funkcji, wszystkie gry dostępne na rynku wyglądały podobnie – żadna z nich nie wyróżniała się efektami wizualnymi.

David Kirk, główny naukowiec Nvidii, zamierzał to wszystko zmienić dzięki stworzeniu prawdziwego procesora graficznego. Jego pomysł polegał na wprowadzeniu nowej technologii nazywanej programowalnymi shaderami. Miała ona umożliwić programistom zewnętrznym dostęp do potoku graficznego i pisanie ich własnych funkcji renderowania, dając im większe możliwości tworzenia efektów wizualnych. Shadery miały pozwalać programistom na tworzenie efektów wizualnych w czasie rzeczywistym, konkurujących jakością z najlepszymi komputerowo generowanymi grafikami w filmach.

Kirk był pewien, że programiści chętnie zaczną stosować tę technologię w grach, ponieważ lepiej niż projektanci chipów wiedzieli, jak tworzyć nowatorskie efekty wizualne. A to z kolei będzie zachęcało graczy do korzystania z kart graficznych Nvidii, ponieważ tylko te karty, spośród dostępnych na rynku, wykorzystywałyby najnowsze możliwości graficzne. Wadą pomysłu Kirka był fakt, że technologia programowalnych shaderów, a zatem i stworzenie GPU z prawdziwego zdarzenia, wymagały zmiany w sposobie projektowania chipów przez Nvidię. A to nawet dla gracza z dużym doświadczeniem w branży chipów graficznych, takiego jak Nvidia, oznaczało przeznaczenie na nowy projekt dużych funduszy i dużo czasu.

Kirk wiedział, że technologiczna korzyść będzie oczywista dla Jensena, do którego należał decydujący głos. Wiedział też, że Jensen skupi się na kosztach, czyli na tym, jak dużo Nvidia musiałaby zainwestować w opracowanie nowej technologii, oraz na tym, czy rynek był na nią gotowy i o ile zwiększyłby się przychód firmy. Mimo że pierwsza reakcja Jensena była entuzjastyczna, Kirk nie miał pewności, czy to był dobry znak.

Z Jensenem już tak jest, że tuż przed uśmierceniem twojego projektu, gdy z tobą rozmawia, wypowiada się o nim optymistycznie – stwierdził Kirk.

Aby zapewnić swojemu pomysłowi przetrwanie, Kirk odwołał się do zawsze obecnej w umyśle Jensena obawy przed oskrzydleniem Nvidii przez konkurencję. Zwrócił uwagę na to, że przewaga Nvidii w zakresie sztywno określonych funkcji graficznych realizowanych sprzętowo nieuchronnie ulegnie erozji. Ponadto te realizowane sprzętowo funkcje tradycyjnych chipów graficznych zostaną kiedyś zminiaturyzowane do tego stopnia, że Intel zrobi z nich jeden z elementów w swoich procesorach lub doda je do chipsetu na płycie głównej. Tak czy inaczej, odrębna karta graficzna stanie się zbędna. Kirk stwierdził też, że pewnego dnia programowalne shadery mogą stworzyć nowe możliwości i rynki poza grami komputerowymi.

„W porządku” – powiedział Jensen po wysłuchaniu przemyśleń Kirka. „Kupuję to”.

W lutym 2001 roku Nvidia wprowadziła na rynek GeForce 3, pierwszy prawdziwy GPU z technologią programowalnych shaderów, umożliwiający programistom z firm zewnętrznych wzbogacanie podstawowych funkcji graficznych chipa. Analiza Kirka okazała się trafna. GeForce 3 stał się rynkowym hitem. W trzecim kwartale finansowym 2001 roku przychód Nvidii osiągnął 370 mln dolarów, co oznaczało wzrost o 87 procent rok do roku. Firma miała roczną sprzedaż na poziomie 1 mld dolarów, przy czym ten kamień milowy został osiągnięty szybciej niż w przypadku jakiejkolwiek innej amerykańskiej firmy półprzewodnikowej. Wcześniejszy rekord należał do firmy Broadcom, która potrzebowała na to trzydziestu sześciu kwartałów. Nvidia pobiła Broadcom o dziewięć miesięcy. Pod koniec 2001 roku, w okresie trzech ostatnich kwartałów, cena akcji Nvidii wzrosła trzykrotnie. Kapitalizacja giełdowa firmy była teraz dwadzieścia razy większa niż w dniu IPO, głównie dzięki strategicznej wizji, bezwzględnej realizacji celów i paranoi utrzymującej Jensena i całe szefostwo Nvidii w stanie czujności z powodu zagrożeń, które mogły się pojawić zewsząd i w każdej chwili.

DĄŻENIE DO STAŁEJ DYWERSYFIKACJI zaprowadziło Nvidię do Apple’a. Historycznie Nvidia nie była dużym dostawcą Apple’a częściowo dlatego, że optymalizowała swoje produkty dla procesorów Intela, które nie były wykorzystywane przez Apple’a. Jednak na początku lat 2000. zdobyła nieduży kontrakt na dostawę chipów graficznych do komputerów iMac G4 przeznaczonych dla zwykłych użytkowników. Ten model był następcą kolorowego komputera typu all in one znanego jako iMac G3 i kojarzonego z triumfalnym powrotem Steve’a Jobsa do Apple’a w 1998 roku.

Chris Diskin, który zdobył dla Nvidii kontrakt na dostawę chipów do konsoli Xbox Microsoftu, został wyznaczony do współpracy z Apple’em. Wraz z Danem Vivolim zajął się opracowaniem strategii, której celem było wykorzystanie chipów GeForce w jak największej liczbie komputerów Apple’a. Przełom w relacjach dokonał się dzięki staremu, kultowemu filmowi krótkometrażowemu firmy Pixar.

Do tego czasu gwoździem programu podczas prezentacji sprzedażowych Nvidii dla producentów komputerów osobistych było demo pokazujące zaawansowane możliwości graficzne i moc obliczeniową jej chipów. W przeszłości, aby zadziwić uczestników prezentacji, firma wykorzystywała gry firm trzecich. Jednak dostępne gry nie pozwalały ukazać w pełni możliwości coraz bardziej zaawansowanych chipów Nvidii. Vivoli podjął decyzję o zainwestowaniu czasu i zasobów w stworzenie lepszych prezentacji dla handlowców. Specjalnie w tym celu zatrudnił dawnego współpracownika z Silicon Graphics, Marka Daly’ego.

Vivoli miał świadomość, że prezentacje były najbardziej skuteczne wtedy, gdy Nvidia jak najlepiej rozumiała potrzeby i preferencje osób w nich uczestniczących. Wcześniejsze prezentacje były kierowane do inżynierów i demonstrowały określone cechy i możliwości nowych chipów Nvidii. Przykładem takiego podejścia był trójwymiarowy sześcian wyświetlany dzięki karcie graficznej Voodoo Graphics podczas konferencji Hambrecht & Quest w 1996 roku. Takie prezentacje robiły wrażenie, jeśli ich uczestnicy wiedzieli, jakich obliczeń wymagały prezentowane efekty. Osoba niebędąca inżynierem raczej nie rozumiała, czy to, na co patrzy, jest wyjątkowe. Vivoli chciał, aby prezentacja nie skupiała się na wydajności chipa – co stanowiło wizualny odpowiednik czytania danych z testów porównawczych – ale wywoływała emocje.

Podczas burzy mózgów w czasie projektowania GeForce 3 Daly wpadł na pomysł, który – w jego przekonaniu – miał pozwolić na atrakcyjną prezentację nowego chipa Nvidii. Krótki, dwuminutowy film animowany Luxo Jr. firmy Pixar stanowił przełomowe wydarzenie dla animacji komputerowej. Krótkometrażówka o skaczących lampach stołowych, pokazana po raz pierwszy w 1986 roku, ukazywała możliwości komputerowego generowania obrazów (CGI) już na wczesnym etapie rozwoju tej technologii. Jednak wymagało to ogromnej mocy obliczeniowej. Każda klatka była generowana przez superkomputer Cray, a jej renderowanie trwało trzy godziny. Przy dwudziestu czterech klatkach na sekundę Cray potrzebował prawie siedemdziesięciu pięciu godzin w celu wygenerowania jednej sekundy filmu. Daly uznał, że Nvidia powinna zrobić demo, wykorzystując film Luxo Jr.

Vivoli zaakceptował tę propozycję.

Świetny pomysł. Zrób takie demo – powiedział.

Po kilku miesiącach Daly poinformował Vivoliego, że jego zespół osiągnął duży postęp, jednak pojawił się problem: film Luxo Jr. stanowił własność firmy Pixar. Gdyby Nvidia wykorzystała go w publicznej prezentacji, mogłaby zostać oskarżona o naruszenie praw autorskich Pixara.

Vivoliemu ogromnie zależało na tym, aby nic nie zakłóciło znakomicie zapowiadającej się prezentacji towarzyszącej premierze GeForce 3. Machnął ręką na obawy Daly’ego.

W porządku. Nie martw się tym. Coś wymyślę – stwierdził Vivoli.

Zarówno on, jak i David Kirk mieli swoje kontakty w firmie Pixar i liczyli na uzyskanie zezwolenia na wykorzystanie Luxo Jr. w demo. Ostatecznie ich prośba dotarła do dyrektora kreatywnego, Johna Lassetera, który reżyserował Toy Story oraz Dawno temu w trawie, a w przyszłości miał także wyreżyserować Auta. Lasseter odmówił udzielenia zgody. Nie był skory do akceptacji tego, by kultowa postać, która w tym czasie była częścią logo firmy i pojawiała się na początku jej każdego filmu, została wykorzystana do sprzedaży chipów graficznych.

W międzyczasie zespół Daly’ego zakończył prace i prezentacja wyglądała równie imponująco, jak to sobie wyobrażał. Vivoli pomyślał:

A gdybyśmy pokazali to demo Steve’owi Jobsowi?.

Wierzył, że renderowana w czasie rzeczywistym wersja Luxo Jr. okaże się skuteczna, ponieważ był to przełomowy czas dla kariery Jobsa i, w szerszym kontekście, rozwoju technologii komputerowych. Ponadto demo pokazywało, że nowy chip miał wydajność porównywalną z możliwościami graficznymi superkomputera i potrafił zrekonstruować wiernie ważne dzieło sztuki.

Vivoli i Diskin spotkali się Jobsem w siedzibie Apple’a. Vivoli rozpoczął demo, demonstrując obraz widziany przez kamerę z różnych pozycji i pod różnym kątem. Przesuwanie kamery pokazało, że w odróżnieniu od nieruchomego obrazu chipy Nvidii renderowały całe widoki w czasie rzeczywistym. Użytkownik mógł zmieniać i oglądać widoki pod dowolnym kątem z realistycznymi efektami oświetlenia i cieni. Jobs był pod wrażeniem. Imponujące było to, że procesor graficzny Nvidii potrafił renderować animację w czasie rzeczywistym, a do tego jakość obrazów była porównywalna z tą osiąganą przez Pixar dzięki wielotygodniowemu wykorzystaniu superkomputerów. Ale poza tym chip Nvidii zapewniał interaktywność w czasie rzeczywistym. Jobs postanowił, że komputer Power Mac G4 będzie mieć GeForce 3 jako opcję dla najbardziej wymagających użytkowników.

Jobs zapytał, czy Apple będzie mógł wykorzystać demo Nvidii podczas konferencji Macworld 2001 w Tokio. Vivoli powiedział mu o sprawie praw autorskich, na co Jobs stwierdził, że wyjaśni to z ludźmi z Pixara. Diskin i Vivoli później ze śmiechem wspominali ten moment: Jobs był prezesem zarówno Apple’a, jak i Pixara, co oznaczało, że pytał o pozwolenie samego siebie.

Jobs zakończył spotkanie po około dwudziestu minutach, udając się na kolejne. Zbierając się do wyjścia, podzielił się z zespołem Nvidii na pożegnanie radą.

Musicie naprawdę coś zrobić z urządzeniami mobilnymi, ponieważ ATI skopało wam tyłek, jeśli chodzi o laptopy – powiedział, mając na myśli głównego rywala Nvidii po upadku 3dfx.

Bez chwili wahania Diskin odpowiedział:

Tak się składa, Steve, że się mylisz.

W pokoju zapadła cisza. Jobs przeszył Diskina wzrokiem.

Powiedz mi dlaczego – rzucił.

Diskin wyczuł, że niewiele osób podważało słowa Steve’a Jobsa i było oczywiste, że oczekuje on dobrej odpowiedzi.

Diskin miał taką. Wyjaśnił, że chipy Nvidii rzeczywiście zużywały więcej energii – i dlatego nie mogły być stosowane w większości laptopów – ponieważ zapewniały wyższą wydajność, niż większość użytkowników komputerów stacjonarnych potrzebowała. Jednak ich wydajność i zużycie energii można było łatwo obniżyć, tak aby spełniały wymagania laptopów. Gdyby Nvidia zmniejszyła częstotliwość taktowania swoich chipów do częstotliwości – a tym samym zużycia energii – chipów ATI, chipy Nvidii zapewniłyby lepszą wydajność. ATI nie kopało tyłka Nvidii w przypadku laptopów, jak sądził Jobs. Po prostu Nvidia nie musiała tworzyć chipa o niskim zużyciu energii przeznaczonego specjalnie dla laptopów, ponieważ do spełnienia ich wymagań wystarczyłaby spowolniona wersja jej flagowych produktów.

Mamy więcej swobody i możliwości – stwierdził Diskin, podsumowując swoje argumenty.

Jobs ponownie spojrzał na niego. Powiedział tylko: „Okej”. Spotkanie dobiegło końca.

Po trzydziestu minutach do Diskina zadzwonił menedżer z Apple’a, Phil Schiller.

Nie wiem, co powiedziałeś Steve’owi, ale jutro mamy się spotkać tutaj z waszym zespołem zajmującym się chipami do laptopów i rozmawiać o waszych produktach – powiedział.

Sytuacja uległa całkowitej zmianie: wcześniej Apple w ogóle nie stosował chipów Nvidii w swoich laptopach, po kilku latach chipy Nvidii znajdowały się w prawie 85 procentach komputerów Apple’a. Diskin dostał szansę i wykazał się oraz udowodnił wartość chipów Nvidii nie tylko dzięki prezentacji, ale także dzięki szybkiemu myśleniu i gotowości do zakwestionowania opinii jednego z najbardziej onieśmielających ludzi w branży technologicznej.

NVIDIA ODNOSIŁA CORAZ WIĘKSZE SUKCESY. Zatrudniła stu pracowników z pokonanej przez nią firmy 3dfx, zdobyła kontrakt Microsoftu na dostawę chipów do konsol do gier Xbox (który w okresie jego obowiązywania przyniósł firmie przychód w kwocie 1,8 mld dolarów), a także uzyskała kontrakty Apple’a na dostarczanie chipów do komputerów z serii Mac. Te osiągnięcia przekładały się na imponujące wyniki finansowe i gwałtowny wzrost ceny akcji. Jednak nowa działalność biznesowa pochłaniała uwagę szefostwa Nvidii i jej inżynierów, odwracając uwagę od podstawowych produktów firmy, czyli procesorów graficznych, co doprowadziło do najgorszej w historii firmy kampanii wprowadzenia nowego produktu na rynek.

W roku 2000 ATI Technologies przejęła za 400 mln dolarów niedużą firmę ArtX, specjalizującą się w chipach graficznych, a dokładnie w chipach do konsol do gier. ArtX założyli inżynierowie, którzy wcześniej, w Silicon Graphics, pracowali nad konsolą Nintendo 64. Firma uzyskała niedawno kontrakt na opracowanie chipów graficznych do następcy N64 o nazwie Nintendo GameCube. Zakup ArtX przez ATI Technologies zapewnił ATI natychmiastową wiarygodność w branży konsol do gier, a pozyskana grupa inżynierów niezwłocznie rozpoczęła projektowanie chipa o nazwie R300. ATI wprowadziła ten chip na rynek na karcie graficznej Radeon 9700, która pojawiła się w sprzedaży w sierpniu 2002 roku.

W międzyczasie Nvidia toczyła spór prawny z Microsoftem, który niedawno zmienił umowy z dostawcami w zakresie dotyczącym dzielenia się informacją i praw własności intelektualnej w odniesieniu do API dla Direct3D. Nowa, aktualniejsza wersja Direct3D, oznaczona jako Direct3D 9, miała zostać udostępniona w grudniu 2002 roku i zawierać istotne ulepszenia o dużym znaczeniu dla następnej generacji chipów. Był jednak pewien haczyk. Firmy wytwarzające chipy mogły uzyskać dostęp do dokumentacji Direct3D 9, aby móc wykorzystać nowe funkcje w projektowaniu chipów, dopiero po podpisaniu nowej umowy. Nvidia uważała, że ta umowa nadmiernie faworyzuje Microsoft, i odmówiła jej podpisania, domagając się lepszych warunków dla dostawców.

Ten spór o charakterze biznesowym miał swoje skutki o charakterze inżynieryjnym. Nvidia była w trakcie projektowania nowego chipa o nazwie NV30 bez dostępu do specyfikacji technicznej nowej wersji Direct3D.

Skończyło się to tym, że NV30 powstał bez wielu wskazówek ze strony Microsoftu. Musieliśmy zgadywać, co oni zamierzają zrobić. Popełniliśmy błędy – powiedział David Kirk.

Panowało zamieszanie, zarówno z powodu braku jasnych wskazówek ze strony Microsoftu, jak i braku koordynacji między różnymi zespołami w Nvidii. Były pracownik pamięta scenę, gdy grupa inżynierów, złożona z projektantów sprzętu i programistów, stała w boksie i patrzyła na marne dane testowe dla NV30, który wciąż był w fazie projektowania. Jeden z programistów, skonsternowany wynikami testu, powiedział, że wygląda to tak, jakby jedna z funkcji sprzętowych, a mianowicie moduł cieniujący (ang. fog shader), została usunięta. Na co jeden z inżynierów odpowiedział:

O tak, usunęliśmy ją, ponieważ nikt jej nie używał.

Programiści byli zaszokowani. Ta funkcja była wciąż powszechnie stosowana w wielu grach, ponieważ pozwalała projektantom gier ograniczyć czas obliczeń graficznych dzięki zamazywaniu szczegółów obiektu wraz z jego oddalaniem się, jakby znikał we mgle. Inżynierowie Nvidii nie poinformowali nikogo o usunięciu tej sprzętowej funkcji ani nie chcieli zrozumieć, dlaczego była ważna. Wyglądało to tak, jakby poszczególne zespoły zostały od siebie odizolowane – co stanowiło zaprzeczenie struktury organizacyjnej Nvidii, istniejącej od jej pierwszych dni.

Inny były pracownik przypomina sobie podobne spotkanie, podczas którego jeden z inżynierów przedstawiał listę różnych funkcji chipa NV30. Osoba odpowiedzialna za relacje z zewnętrznymi firmami tworzącymi gry i aplikacje zauważyła, że na liście brakuje ważnej funkcji do antyaliasingu przestrzennego (multi-sample anti-aliasing, MSAA), techniki stosowanej w grafice komputerowej do usuwania postrzępionych krawędzi obiektów. Padło pytanie:

Co słychać z 4X MSAA? Co się dzieje?.

Inżynier odpowiedział:

Nie sądzimy, żeby to była wielka sprawa. To trochę niesprawdzone.

Pracownik zajmującymi się relacjami z zewnętrznymi programistami był przerażony.

O czym ty mówisz? Produkt już sprzedawany przez ATI ma tę funkcję i gracze ją uwielbiają.

Inżynierowie Nvidii ponownie wydawali się nieświadomi oczekiwań rynku.

Pod względem architektury chipa NV30 był katastrofą. To była tragedia. Programiści, zespół projektujący architekturę i zespół budujący ten chip prawie się ze sobą nie komunikowali – stwierdził Jensen po jakimś czasie.

W efekcie Nvidia nie zadbała o to, aby NV30 przeszedł testy wydajności dla najpopularniejszych gier. Nowe chipy graficzne różnych firm były oceniane w magazynach komputerowych, a narzędziem służącym do porównania były testy przeprowadzane przez niezależnych specjalistów. Mierzono takie wskaźniki, jak liczba klatek na sekundę w grach z bogatą grafiką dla różnych rozdzielczości. Ustandaryzowane testy pozwalają graczom zapoznać się z konkretnymi danymi liczbowymi, co stanowi lepszą miarę niż poleganie na subiektywnych analizach jakości poszczególnych kart graficznych (a tym bardziej na informacjach marketingowych producentów kart). Podczas prac nad NV30 stało się oczywiste, że chip nie wygra zbyt wielu testów dla gier najbardziej lubianych przez graczy. Po raz pierwszy od czasu NV1 Nvidia miała wprowadzić na rynek kartę graficzną niekonkurencyjną pod względem wydajności w porównaniu z produktami rywali.

ATI postąpiła inaczej: podpisała nową umowę z Microsoftem i uzyskała dzięki temu dostęp do specyfikacji Direct3D 9, co umożliwiło optymalizację R300. Zarówno chip, jak i karta graficzna, na której chip był montowany, Radeon 9700 PRO, działały perfekcyjnie i były całkowicie zgodne z najnowszą wersją API Microsoftu. Produkt ATI bez większych problemów sprawdzał się w najnowszych grach z grafiką 3D, takich jak Quake 3 czy Unreal Tournament, także w trybie wysokich rozdzielczości. Możliwe było renderowanie pikseli w żywszym 24-bitowym kolorze zapewniającym lepszą głębię niż 16-bitowy stosowany we wcześniejszej generacji chipów. Ponadto Radeon zapewniał dużo lepsze możliwości antyaliasingu, dzięki czemu wielokąty były wyraźne, a linie pozbawione efektu rozmycia. I co ważne, nowy produkt ATI pojawił się w sprzedaży w sierpniu 2002 roku, tuż przed zakupami związanymi z początkiem roku szkolnego i akademickiego.

Chip NV30 Nvidii nie miał żadnej ze wspomnianych wyżej funkcji. Nie wykorzystywał możliwości oferowanych przez Direct3D 9, co oznaczało, że nowe gry traciły wiele ze swojej atrakcyjności wizualnej. Zaprojektowany dla 32-bitowego koloru pod względem technicznym przebijał Radeona 9700 PRO, jednak Direct3D 9 nie miał wsparcia dla koloru 32-bitowego. Nvidia została zmuszona do poinformowania swoich partnerów produkujących karty graficzne z jej chipami, że sprzedaż ich nowych kart z chipem NV30 będzie opóźniona o pięć miesięcy. Zyskiwała w ten sposób czas na poprawienie NV30 w celu zwiększenia jego konkurencyjności wobec karty Radeon 9700 PRO, ale wiązało się to z przegapieniem krytycznego okresu jesiennej sprzedaży.

Po porównaniu karty GeForce FX z chipem NV30 z kartą Radeon 9700 PRO inżynierowie Nvidii postanowili poprawić NV30. Opracowali rozwiązania programistyczne „tłumaczące” nowe funkcje DirectX chipowi NV30.

Musieliśmy zrobić salto do tyłu, aby móc korzystać z API DirectX 9. Polecenie było kierowane do DirectX i musieliśmy przekształcić je w coś innego, co nasz chip rozumiał – powiedział Dan Vivoli

Te „polecenia”, czyli instrukcje graficzne wysyłane do API DirectX, wymagały większej mocy obliczeniowej, co zmusiło Nvidię do zwiększenia częstotliwości taktowania NV30. To spowodowało wydzielanie się większej ilości ciepła, co z kolei zmusiło inżynierów Nvidii do użycia dużego wiatraka, który wydawał głośny, wysoki dźwięk.

Dla graczy było to wyjątkowo nieprzyjemne doznanie, ponieważ dźwięk był rzeczywiście głośny” – powiedział Vivoli.

Klienci nieustannie narzekali na hałasujący wiatrak. Jedynym rozwiązaniem, które Nvidia mogła zastosować, było opracowanie algorytmu zmieniającego czas włączania i wyłączania się wiatraka, jednak to wymagało czasu – i ostatecznie okazało się niezbyt skuteczne.

Aby uchronić firmę przed całkowitą kompromitacją, jeden z marketingowców zasugerował zrobienie żartobliwego wideo, pokazującego, że hałasujący wiatrak stanowił zamierzony efekt.

Wzięliśmy winę na siebie. Zrobiliśmy wideo, w którym GeForce FX była umieszczona na końcu dmuchawy do liści. Pokazaliśmy ludzi gotujących na GeForce FX, ponieważ karta wydzielała tak dużo ciepła.

Te działania przynajmniej częściowo udobruchały społeczność graczy, która doceniła, że Nvidia potrafiła zażartować z samej siebie i przyznać się do błędu. Pozwoliło to także ograniczyć liczbę negatywnych opinii o karcie. Gdy tylko któryś z konkurentów próbował wskazać użytkownikom, jak głośna jest GeForce FX, ci mogli obejrzeć samokrytyczne wideo Nvidii.

Wideo okazało się celnym zabiegiem PR-owym, jednak bez większego znaczenia dla losów chipa na rynku. W porównaniu z kartami z chipem R300 karty wykorzystujące chip NV30 były droższe, nagrzewały się, spowalniały gry i miały wyjątkowo głośny wiatrak. Sprzedaż GeForce FX w niezwykle ważnym czwartym kwartale zmniejszyła się o 30 procent rok do roku, a cena akcji Nvidii spadła o 80 procent w porównaniu z ceną maksymalną zaledwie dziesięć miesięcy wcześniej. Nvidia przeżywała na nowo koszmar z czasów NV1. Poszczególne zespoły w firmie nie komunikowały się ze sobą, a cała firma z jakiegoś powodu straciła kontakt ze swoimi najwierniejszymi klientami.

Jensen był wściekły z powodu marnego zaplanowania i realizacji projektu nowego chipa. Podczas spotkania wszystkich pracowników firmy zwrócił się do inżynierów.

Pozwólcie mi powiedzieć coś o NV30. Czy to jest to gówno, które zamierzaliście zbudować?. Architekci chipa wykonali gównianą robotę. Jak mogliście nie przewidzieć efektu »dmuchawy do liści«, zanim do tego doszło? Ktoś powinien był podnieść rękę i powiedzieć »Słuchajcie, mamy problem z tym projektem«” – wykrzyczał.

Jego krytyka nie zakończyła się tym jednym spotkaniem. Nieco później zaprosił menedżera wyższego szczebla z firmy Best Buy, w owym czasie największej sieci detalicznej wyrobów elektronicznych w Stanach Zjednoczonych, aby dać mu możliwość rozmowy z pracownikami Nvidii. Zaproszony gość długo mówił o marnych osiągach NV30 i skargach klientów na głośny wiatrak. Jensen zgadzał się z nim:

Ma rację. To jest do dupy.

Swoje zbawienie Nvidia zawdzięczała temu, że konkurencja nie wykorzystała w pełni uzyskanej przewagi. ATI ustaliła cenę swojej karty graficznej z chipem R300 na poziomie 399 dolarów, identycznym z ceną karty Nvidii z chipem NV30. Gdyby ATI obniżyła cenę swojej karty bardziej agresywnie, firma mogłaby praktycznie zlikwidować popyt na gorszą kartę z NV30 i doprowadzić Nvidię do bankructwa. Dwight Diercks uważał, że ATI miała dużą marżę zysku i mogła to zrobić, ponieważ jej chip był dużo tańszy niż marnie zaprojektowany chip Nvidii.

Gdyby Jensen był szefem ATI doprowadziłby do upadku Nvidii – stwierdził Diercks

JENSEN PODDAŁ ANALIZIE FIASKO Z NV30. Finalnie to na nim spoczywała odpowiedzialność za efektywną współpracę poszczególnych zespołów w Nvidii, niezależnie od wielkości firmy. Dostrzegał teraz, że proces kulturowej integracji byłych inżynierów z 3dfx dokonał się za szybko.

NV30 był pierwszym chipem zaprojektowanym po przejęciu pracowników z 3dfx. Współpraca z nimi nie była harmonijna – stwierdził po wielu latach.

Przełomowym innowacjom Jensen, podobnie jak całe generacje liderów biznesu, zawdzięczał wiedzę, jak chronić firmę przed konkurencją. Ta książka pomogła mu zrozumieć zagrożenie ze strony rywali oferujących tańsze produkty i zmotywowała do wprowadzenia na rynek tańszych chipów Nvidii o gorszych parametrach, selekcjonowanych spośród bardziej wydajnych. Przekonała go do dywersyfikacji partnerów biznesowych Nvidii i poszukiwania ich poza rynkiem użytkowników pecetów, co zaowocowało dostawami chipów Nvidii do konsol do gier oraz komputerów stacjonarnych i laptopów Apple’a. Wreszcie zmusiła do dużych, strategicznych inwestycji, takich jak dodanie do chipów Nvidii możliwości ich programowania i stworzenie prawdziwych procesorów graficznych.

Uwadze Jensena umknął jednak jeden z bardziej subtelnych przekazów Christensena, a w każdym razie tak było w pierwszej dekadzie istnienia Nvidii. Nie wystarczało brać pod uwagę tylko zewnętrznych miar sukcesu, takich jak przychody, rentowność, cena akcji czy tempo wprowadzania na rynek nowych produktów. Naprawdę zrównoważona firma powinna poświęcać co najmniej tyle samo uwagi temu, co dzieje się wewnątrz niej, swojej kulturze organizacyjnej. Podczas gdy Nvidia zbudowała pozycję dominującego gracza w branży chipów graficznych, uwagę jej szefostwa zaczęły rozpraszać relacje z partnerami, inwestorami i sytuacja finansowa. Firma przestała dostrzegać narastający wewnętrzny problem: samozadowolenie. I to właśnie samozadowolenie prawie doprowadziło ją do upadku.

Jensen jest znany z tego, że stosuje się do swojej zasady niepopełniania dwa razy tego samego błędu. Zebrał w sobie tę samą energię i czujność, z jaką chronił firmę przed zagrożeniami zewnętrznymi – i użył ich do zmierzenia się z zagrożeniami wewnętrznymi. Zakończył spór o umowę z Microsoftem, aby inżynierowie Nvidii nigdy więcej nie musieli poruszać się po omacku w odniesieniu do Direct3D. Dopilnował, aby pracownicy Nvidii byli w stałym kontakcie z producentami gier, co miało zapewnić, że funkcje ważne dla nich i dla graczy zawsze będą uwzględnione w projektowaniu chipów Nvidii. Zażądał od inżynierów, aby wszystkie nowe procesory graficzne Nvidii były zoptymalizowane pod kątem najbardziej popularnych gier w celu wygrywania testów porównawczych. Najważniejsze było jednak wymaganie od pracowników „intelektualnej uczciwości” – ciągłego kwestionowania własnych założeń i przyznawania się do swoich błędów. Miało to chronić firmę przed efektem kuli śnieżnej problemów, który mógł spowodować porażkę jak w przypadku chipa NV30.

Nvidia ledwo przetrwała pierwszych dziesięć lat. Osiągnęła wiele: techniczną magię, przebojowe IPO i względną długowieczność w przemyśle, w którym większość rywali istniała tylko przez kilka lat. Pokornie zniosła swoje porażki: grożące jej bankructwo z powodu niepowodzeń z chipami NV1 i NV2; problemy produkcyjne, które opóźniły sukces chipa RIVA 128; klęskę z chipem NV30, która ujawniła głębokie dysfunkcje organizacyjne – firma mu siała się z nimi zmierzyć. Stała się dużą spółką giełdową, z tymi samymi wyzwaniami i skłonnością do entropii, jak każda inna duża spółka publiczna. Jeśli Nvidia miała osiągnąć sukces w następnym dziesięcioleciu, Jensen musiał zostać liderem innego rodzaju.

Nieniejszy fragment jest 7 rozdziałem książki Nvidia – droga do sukcesu. Jak Jensen Huang stworzył technologicznego giganta, która została wydana przez wydawnictwo Prześwity.

Wszelkie prawa do treści zastrzeżone.

Polecane artykuły

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Back to top button

Adblock Detected

Please consider supporting us by disabling your ad blocker