rek
rek
15.03.2013
Często komentowane 42 Komentarze

Nvidia: „Next-geny nie opłacają się nam biznesowo”

Nvidia: „Next-geny nie opłacają się nam biznesowo”
Choć przyszła generacja konsol bazować będzie najpewniej wyłącznie na układach AMD – podzespoły tej firmy znalazły się w PS4, a z plotek wynika, że pojawią się również w nowym Xboksie – największy rynkowy rywal twórców Radeona, Nvidia, nie przejmuje się tym stanem rzeczy. Dlaczego?

W PlayStation 4 znajdą się chipy od AMD, spekuluje się, że podobnie będzie w przypadku nowej platformy Microsoftu. Jeśli plotki się potwierdzą, oznaczałoby to, że Nvidia, która dostarczyła układ graficzny m.in. do PS3, nie weźmie udziału w następnej generacji konsol.

W rozmowie z serwisem GameSpot Tony Tamasi, starszy wiceprezes ds. zawartości i technologii w Nvidii, stwierdził jednak, że angażowanie się w next-geny było dla jego firmy nieopłacalne z biznesowego punktu widzenia.

Jak wyjaśnia:

Jestem pewny, że były prowadzone rozmowy w tej sprawie i doszliśmy do wniosku, że nie chcemy wchodzić do tego biznesu za cenę, którą te firmy [Microsoft i Sony] są gotowe zapłacić. Mając doświadczenie z pierwszym Xboksem i PS3 zrozumieliśmy ekonomię stojącą za produkcją konsol i wynikające z niej kompromisy. Budujemy całą masę rzeczy i musieliśmy patrzeć na ten rynek pod względem ceny. Jeśli zrobimy tego typu platformę, to jaką inną część naszej działalności będziemy musieli po tym zawiesić? Mamy ograniczoną liczbę inżynierów i ograniczone możliwości i jeśli zrobimy układy dla Microsoftu lub Sony, to najprawdopodobniej nie będziemy mogli dostarczyć chipów w jakiejś innej części naszej działalności.

Tamasi podkreśla przy tym, że „widać, iż nie chodzi o kwestie technologiczne”, ale właśnie o biznesową i długofalową strategię rozwoju.

rek

42 odpowiedzi do “Nvidia: „Next-geny nie opłacają się nam biznesowo””

  1. Nie od dziś wiadomo, że na konsolach się nie zarabia więc trudno spodziewać się żeby zysk ze sprzedaży GPU do nich był jakiś sensowny zwłaszcza w porównaniu z kosztami zmodyfikowania GPU pod wymagania konsol.

  2. $$$$$…no coments

  3. a mnie sie poprostu wydaje ze lepszych programistow posiada Amd i dlatego Sony i Microsoft wybrali ta firmie.|Nvidia by nigdy sobie nie odpuscil takiej okazji jak dodatkowe miejsce pracy przy dodatkowym zatrudnieniu ludzi !.Nie widze zadnego problemu w tym.Nvidia poprostu technologicznie nie stoi tak wysoko jak AMD.|To AMD pierwsze wymyslilo Teselacje i weszlo z tym w rynek wiec ma wieksze doswiadczenie w DirectX11.

  4. kamil999666 15 marca 2013 o 11:09

    Przerwa na reklamy: „…. bo wszyscy Polacy to inżynierzy komputerowi … więc kupuj w biedronce …” A teraz poczytajmy komentarze i dowiedzmy się jak to tak naprawdę było z tymi chipami …. 🙂

  5. Ta jasne piszą tak bo AMD dostarcza podzespoły jak i dla Sony tak dla Microsoftu

  6. TruthDefender 15 marca 2013 o 11:25

    @maskor84 Oczywiste dużo w tym logiki biorąc pod uwagę cały rynek GPU i poszczególne elementy takie jak współpraca z programistami gier, zaufaniem twórców profesjonalnej grafiki czy graczy oraz czas istnienia z doświadczeniem. Każdy z tych elementów tak jak i ogół wypada na korzyść Nvidii. No, do tego dodajmy słabsze przychody biedniejszego AMD i chęć pracy za każde pieniądze dla M$ czy Sony byleby konkretnie zarobić w końcu. Tak Twoja teoria o lepszych programistach zdecydowanie ma sens w modelu biznesowym

  7. Jak czytam w newsach ,że plotkowano na jakiś temat to……no kurna co za amatorszczyzna co rynek chce by personalizować produkt czy co

  8. @tomecki: Nie wiem czy zauwazyles ze napisales, ze cały swiat trabi o tym, ze firma robiaca podzespoly komputerowe byla w stanie zrobic podzespoly generujace grafike jak na komputerach 🙂 .|Jedyna na czym AMD moze wyjsc na plus to fakt, ze wzrosnie ich popularnosc wsrod graczy PCowych, gdyz porty konsolowe beda w pierwszej kolejnosci robione na AMD.|Ps.: Wciaz nikt nie pokazal jak Crysis 3 sprawuje sie na PS4 – to bylby ciekawy eksperyment.

  9. TruthDefender 15 marca 2013 o 12:06

    No fakt, z tymi portami to może być butthurt. Ale się zobaczy. Niewątpliwie mamy do czynienia z całkowicie nową sytuacją na rynku. Ciekaw jestem jak to wpłynie na sprzedaż GPU na PC.

  10. Mam niezłą bekę jak czytam komentarze na cdaction. Jak widać, dużo znafców się tu znalazło. Troszkę historii- Pierwszy Xbox miał zmodyfikowanego GeForce 3 dostarczonego przez Nvidie, niestety Bill i spółka nie miała zbyt dużego wpływu na architekturę całego GPU. Kolejna kwestia- Sony też dało się poniekąd oszukać- obcięty GeForce 7800 GTX praktycznie nie współpracował z resztą architektury, więc zadania które miały być liczone przez GPU musiały zostać wtedy liczone przez SPU Cell’a. Konie cześci pierwszej.

  11. Natomiast X360 miał zmodyfikowanego R600 z zunifikowanymi shaderami, co było dobrym wyborem MS. Gdy Sony miało problemy z swoim GPU to w konsoli MS GPU spisywało się świetnie. Zwłaszcza, że Nvidia wydała biblioteki do Physxa na X360 który nie miał GPU Nvidii 😛 . Podsumowując Nvidia słabo projektuje GPU do konsol i cieszę się, że wyleciała z rynku konsolowego. Ciekawi mnie tylko czemu twierdzą, że mają małą ilość inżynierów skoro bawią się w własny Project Shield?

  12. Dla przeciętnego gracza konsolowego, to czy w ich sprzęcie siedzą produkty zielonych czy czerwonych nie ma żadnego znaczenia 😛 , a dla AMD to spory zysku i dobra działanie marketingowe, Nvidia sporo na tym straci, ale jeśli taką ma strategię no cóż… zawsze pozostaje im zabawa z Tegrą i działanie na rynku mobilnym. AMD swoją szanse wykorzystało i tyle w tym temacie.

  13. @maskor84 Z reguły jeśli pewna firma wygrywa przetarg i tworzy coś dla zleceniodawcy to w przyszłości jeśli ich produkty był udany mają pierwszeństwo. Czytaj, to do nich zleceniodawca zgłasza się jako pierwszy. A skoro wiadomo że w starym Xboksie i PlayStation były bebechy Nvidi, to na pewno obie te firmy zgłosiły się do nich jako pierwszych a nie AMD. Po za tym czego by nie mówić Nvidia zawsze jest kroczek do przodu. Tak więc twoja teoria o programistach z AMD jest co najmniej wyssana z palca. Dla tego…

  14. to co napisano w tym newsie jest moim zdaniem dość prawdziwą informacją, i tak na prawdę jedyne firmy które mogą zdementować ten wpis to Sony i Microsoft.

  15. @Pointer669 pod jakim względem nvidia jest o krok do przodu w porównanie z AMD? IMO to teraz AMD przegoniło nvidie z kartami graficznymi, a już na pewno z kartami do ~700 zł, gdzie po prostu AMD nie ma konkurencji.

  16. przecież mówiłem o tym od samego początku ja pokazano ps4 to finansowo się nie opłaca i ja tego nie rozumiem czemu sony i microsoft tak się uparły na next geny moim zdaniem one przegrają na rynku z PC i tanimi konsolami opartymi na androidzie wiec ktoś to oprócz mnie to zauważył 🙂

  17. cóż możliwe , że Nvidia ma wydajniejsze podzespoły , jednak niestety droższe od konkurenta

  18. DavidCopperhead 15 marca 2013 o 14:39

    @Pointer669: Chyba jednak mało wiesz o produktach NVIDII I AMD. Po1. AMD wydaje pół roku wcześniej swoje karty graficzne nowej generacji, w przeciwieństwie do NVIDII. Wyjątkiem jest mający niedawno premierę Geforce GTX Titan oparty o silnik graficzny GK110. Po2. Nie, NVIDIA nie jest „zawsze” lepsza od AMD. Pierwsza generacja architektury Fermi była fatalna. Nie dość, że temperatury były bardzo wysokie, to wydajnościowo przegrywały z kartami AMD. Dopiero seria 5xx była lepsza wydajnościowo,ale nadal…

  19. @jantomx Karty do 700zł nie oszukując się to szajs. Od 1000zł w górę zaczynają się dobre karty a tam Nvidia ze swoimi kartami z serii Ti które są bardzo opłacalne zwłaszcza że można dostać je taniej jak 1000zł. Po za tym Tytan pokazał co umie Nvidia. Kiedyś o ile pamiętam była karta która się nazywała Mars? która też rozgromiła AMD, których odpowiedzią były połączone 2karty w jedną a to nie jest wyjście z sytuacji. |@Tricky cena raczej gra małą role, bo jeśli ktoś się na coś zdecyduje to poczeka tych kilka

  20. DavidCopperhead 15 marca 2013 o 14:42

    temperatury były stosunkowo wysokie. Architektura Kepler jest już o wiele lepsza pod względem poboru prądu i temperatur, ale w stosunku do serii 7000 od firmy AMD nie ma zbyt dużych różnic w wydajności jak to miało miejsce wcześniej (generacja 6xxx AMD i seria 5xx od NVIDII). Przypominam, że 2013 rok jest pierwszym rokiem kiedy AMD wyda później swoje karty od NVIDII. Pierwszy raz od paru generacji.

  21. miesięcy i dozbiera na lepszy sprzęt który mu się w przyszłości opłaci. Zawsze wychodziłem z takiego założenia. Wolę poczekać, dozbierać i kupić coś lepszego.

  22. DavidCopperhead 15 marca 2013 o 14:46

    Obecnie sytuacja ma się tak, że NVIDIA ma najlepszą jednoprocesorową kartę graficzną za…. 4000zł, później są dwuprocesorowę i ponoć najlepsza jest karta AMD (ASUS ARES II,bo AMD nie wydało nigdy w tej generacji własnej dwuprocesorowej), zaraz potem masz dwuprocesorowego GTX-a 690, a potem podobne wydajnościowo 7970 GHZ Edition i GTX 680. Niemniej cenowo w każdym segmencie wydajnościowym AMD masz tańsze. I tu jest w tej generacji różnica (nie licząc Titana, bo on jest z następnej prawdopodobnie – GK110).

  23. @DavidCopperhead wydajność to jest moim zdaniem klucz do zwycięstwa temperaturę zawsze da się obniżyć jak nie powietrzem to wodą. Fermi wcale nie był taki fatalny miał swoje wady ale był na swój sposób nowością, czymś czego wcześniej nie było, a tak jak napisałeś seria 500/600 znowu była wydajniejsza, nie wiele ale zawsze.

  24. DavidCopperhead 15 marca 2013 o 14:51

    @Pointer669: Naginasz chłopie fakty, że aż brak słów. ASUS MARS II, bo tak ta karta się nazywała, to były dwa GTX-y 580… czyli taki GTX 590, ale składany przez ASUSA, a nie przez NVIDIĘ jak to zazwyczaj w poprzednich generacjach miało miejsce… Nie jest więc niespodzianką, że rozgromił Radeona 6970, bo 6990 prześcignął nieznacznie, czego dowodzą testy na zagranicznych serwisach czy pclabie… a kosztował o wiele drożej. Proszę Cię, nie rozsiewaj fałszywych faktów, bo nie znoszę tego u ludzi.

  25. DavidCopperhead 15 marca 2013 o 14:54

    I nie, wydajność nie jest kluczem. Bo w kartach dwuprocesorowych nic Ci nie da 100-200 klatek na sekundę jeśli masz mikro przycięcia. A to ma znaczenie z kolei w grach multi. I tu już nawet nie ma znaczenia firma, bo obie mają z tym problemy i ciągle łatają sterowniki. Proponuje żebyś poczytał jednak trochę serwisów technologicznych najpierw. Zagraniczne mają dużo ciekawych artykułów na ten temat.

  26. Tak coś czułem po napisaniu tego że to była jednak konfiguracja 2-kart, moja wina, ale niestety edytowania postów nie ma.

  27. @DavidCopperhead Nigdy nie korzystałem z kart dwuprocesorowych i nie mam zamiaru bo tyle o ile jeszcze na ten temat trochę czytałem dla tego właśnie uważam że taki Tytan to coś wspaniałego na co studenta jeszcze nie stać 😉

  28. Obecnie korzystam z GTX660Ti i poważnie myślałem nad połączeniem dwóch takich w SLI. Ale zamiast tego jak będę zmieniał to postawię na GTX670 albo GTX680. No chyba że wygram w totka to Tytan zawitam w moim kompie(ahh te marzenia 😛 )

  29. DavidCopperhead 15 marca 2013 o 15:10

    @Pointer669: No zgodzę się na pewno z tym, że najczęściej wybierane (przynajmniej w Polsce) są karty ze średniej półki, czyli 560Ti lub 660 Ti od NVIDII albo 7850 bądź coś z poprzedniej generacji, np. 6850. Co do łączenia w SLI, to dobrze robisz, że zrezygnowałeś z tego. Mikro przycięcia są nieznośnie i lepiej zainwestować w lepszą kartę jednoprocesorową. Na Twoim miejscu bym się wstrzymał z wymianą do końca roku. Wtedy wyjdzie nowa generacja AMD, NVIDIA pewnie wyda resztę swoich kart i zacznie się nowa …

  30. DavidCopperhead 15 marca 2013 o 15:12

    wojna cenowa, której owocem będą albo obniżki Titana, albo obniżki czegoś od AMD. Lepiej poczekać. Ja tak zrobiłem w tej generacji i się nie zawiodłem. Chyba najwięcej obniżek obie firmy robiły od paru lat. Do tego obie firmy prowadziły agresywniejszą politykę aktualizacji sterowników. Cud miód i orzeszki dla konsumentów moim zdaniem.

  31. Powiem ci że tą kartę dostałem na gwarancji w zamian za GTX560Ti więc nie wydałem złotówki zwłaszcza że GTX560Ti dostałem za GTX460 którego dostałem w zamian za GTX275 którego nigdy nie zapomnę to był potwór ale się po roku spalił i to był rok wejścia serii 400. W tym roku jedynie zmienie procesor chciałem i7 3770k ale moderator z forum powiedział żebym się wstrzymał bo mają wejść jakieś nowe Intele na przełomie Maj/Kwiecień więc czekam 😉

  32. DavidCopperhead 15 marca 2013 o 15:22

    Obecna generacja z tego co wiem, to się dobrze trzyma jeśli chodzi o temperatury więc raczej tym razem się nie spali ten 660. Co do procesora, to ma rację. Ivy Bridge i7 3770K ponoć kiepsko się kręci, a i wydajnościowo jest raptem z 5% lepszy niż Sandy Bridge (core i7 2600K). Lepiej poczekać nie do kwietnia/maja, tylko jednak w czerwcu powinny być dostępne Haswelle, czyli nowa generacja w 22nm. Nie mniej nie jest Ci potrzebny i7, bo wątpię żebyś w grach korzystał z Hyper Threading. Lepiej kupić core i5.

  33. @DavidCopperhead Wszyscy mi tak mówiła, ale boję się tego że mimo marnego proca w next-genach te jego zabójcze 8 wątków może spowodować że i5 w pewnym momencie nie da rady dla tego tak chce 3770k a raczej ten Haswell który go zastąpi.

  34. TruthDefender 15 marca 2013 o 16:07

    Titan to dowód górowania Nvidii nad AMD. Niech AMD zrobi tak wydajną jednoprocesorową kartę to wrócimy do tematu.

  35. Mówią tak wyłącznie dlatego, że nikt z nimi nie chciał podpisać umowy.

  36. TruthDefender 15 marca 2013 o 16:30

    @kjm9 Zapewniam, że w przypadku tak dużych firm negocjacje w sprawie umowy na pewno były i to do tego jestem skłonny założyć, że Microsoft i Sony najpierw rozmawiali z Nvidią. Prawdopodobnie jednak, Nvidia zarządzała za wysokich tantiemów i na tym się skończyło. Na pewno wiedzą na co się pisali.

  37. Czytaj. Wzięli AMD no to teraz musimy coś powiedzieć coby nam akcje zbytnio nie spadły.

  38. Z procków to obecnie najbardziej się opyla kupić I7 2700K. kręci się lepiej od 3700K i jest od niego duzo chłodniejszy. Wydajnościowo nie ma różnicy w tych samych zegarach a cena niższa. Nic tylko znaleźć te nieliczne nówki i zakupić.

  39. po prostu im się nie opłacało… nie mają cpu a za pewne takie były wymagania cpu zintegrowane z gpu…|o ile grafikę mają to z obecnymi cpu nie dali by rady i trzeba by było coś nowego wymyśleć albo dogadać się z kimś… a to zjadło by zyski.|Po prostu amd taniej produkuje… i do tego ma co za proponować, a nV nie.

  40. @Krax No wreszcie wpis kogoś, kto ma głowę na miejscu 🙂 Nvidia powinna się przyznać że nie spełniła wymagań i na rynku APU nie ma czego szukać. Gdzie znajdziecie firmę która zrobi jedno i drugie razem i to jeszcze w niskiej cenie… bo na pewno nie Intel. Zalecam aby „spece” od PC nie wypowiadali się w tematach o których nie mają pojęcia. Przy okazji PS3 ma 256MB GDDR3 a nie jak twierdziłem XDR który jest dla pamięci systemowej 🙂 Ostatnio taki ram ATI montował w serii HD4000.

  41. A mnie sie wydaje , że tak naprawdę chodziło o to, że sony chciało NV ale oni odmówili i zostało tylko Amd proste

  42. vazin myślę że to raczej było coś w stylu:|sony zorganizowało przetarg a nV po zapoznaniu się z wymaganiami i dostępnymi środkami, do niego nie przystąpiła. |tak jak pisałem po prostu za dużo musieli by wyłożyć aby zrobić coś co pasowało by do wymagań i bardziej opłaca im się tą kwotę zainwestować w coś innego.

Dodaj komentarz