
L.A. Noire: Kompilacja wpadek z produkcji [WIDEO]
![L.A. Noire: Kompilacja wpadek z produkcji [WIDEO]](https://staging.cdaction.pl/wp-content/uploads/2025/03/81674591-3100-4cda-bddc-748d16be4875.jpeg)
Wielokrotnie w trakcie napisów końcowych komedii widzieliście filmiki pokazujące wpadki aktorów na planie — tzw. bloopersy. W sieci pojawił się pierwszy tego typu materiał dotyczący gry — oto wpadki z L.A. Noire.
Do tej pory nie było bloopersów związanych z grami, bowiem proces ich produkcji jest zupełnie inny niż filmów. Unikatowa technologia animacji twarzy z L.A. Noire sprawiła jednak, że można było nie tylko utrwalić to, co trafiło ostatecznie do gry, ale i właśnie wpadki.
Ich kompilację można zobaczyć na filmiku, który jakiś czas temu trafił na YouTube’a. Warto obejrzeć — uśmiech gwarantowany.

Czytaj dalej
24 odpowiedzi do “L.A. Noire: Kompilacja wpadek z produkcji [WIDEO]”
Dodaj komentarz
Musisz się zalogować, aby móc dodać komentarz.
Pierwszy? A Outcast Outtakes to pies?
@Revanchist Piotrek nie brał pod uwagę gier wydanych przed jego urodzeniem.
Nieźle się uśmiałem, szczególnie przy tym kichaniu 🙂
No, i to jest wyznacznik fotorealizmu, a nie kolejne DX11,12,13,14 i inne duperele… Taka technologia powinna być obecnie w każdej grze, wtedy gry weszłyby na wyższy poziom niż są obecnie teraz.
Mega 😀 Fakt, momenty z kichaniem są najlepsze 😀 :D:D
Czy oni myją czujniki, które umieszczają na języku?
Te animacje są niesamowite. Tak sugestwyne i szczegółowe, że aż niepokojące. Oglądajac to miałem wrażenie, jak bym miał okazję obejrzeć grę z, ja wiem, 2023 roku…;] Żeby tak w Wiedźminie 3 zaimplementowali takie animacje twarzy, plus kolejna wciagająca historia od CDPR, może byłaby gra roku wszechplatfrom i gatunków? Lekkie bajdurzenie, ale nie bezpodstawne 🙂
@TreKronor, owszem, robią wrażenie. Problem w tym, że w zasadzie nie są to animacje, a żywi aktorzy przeniesieni w środowisko 3d. Całość to po prostu nagrania. W wiedźminie możesz mieć coś takiego pod warunkiem, że Geralt będzie miał twarz Rozenka, Triss Kunikowskiej, magister Boberka itd. Dlatego nie chcę czegoś podobnego w nowych grach, bo po jakimś czasie w każdym tytule mielibyśmy znajome, powtarzające się facjaty. To fajny bajer i nic ponadto. Bezcelowa technologia, ślepy zaułek.
Ta technologia jest ograniczona, postacie nie mają tak naprawdę kontaktu wzrokowego z otoczeniem, bo aktorzy nie widzą, gdzie są i w co patrzą, plus oczy z bliska wyglądają jak płaska tekstura 😛
Dobrze prawicie chłopaki. Może poddana modyfikacjom technologia ta stanie się bardziej elastyczna. Gdybam, bo się nie znam. Tak czy inaczej nawet w obecnej formie widziałbym ją w tak wielkiej produkcji, jak Wiedźmin. Jest to jednak unikatowy produkt, więc tych kilku(nastu) aktorów by się znalazło. Gorzej z wersjami językowymi, tutaj pojawia się już problem raczej nie do przeskoczenia (pomijam dubbing). Tak duża inwestycja tylko dla polskiego gracza? Utopia. No ale Geralt-Żebrowski byłby wow ;D
@eustachy80 |Co ty za głupoty opowiadasz , osoby podkładające głos i jednocześnie grające WCALE nie muszą być podobne do skinów postaci to tylko ruch jest odwzorowany. Sprawdź jakieś wideo na yt z tą technologią np. tworzenie pierwszego trailera do bo2.
@eustachy80|Bezcelowa technologia i ślepy zaułek to Oculus. Mocap twarzy nie wymaga użycia modelu zeskanowanego z twarzy aktora, bo można markery umieścić na dowolnym modelu. Stosuje się taki proceder tylko ze względu na to, że jest to łatwiejsze, a przede wszystkim – animacje są bardziej realne. Wystarczy przyjrzeć się choćby mocapom z nowego Splinter Cella i kaskaderowi, który odgrywa Sama.
Genialne
@Revendell|Ten problem został już rozwiązany przy produkcji Beowulfa (filmu, nie gry). Nakłada się markery na oczy, a potem kamery rejestrują ich ruch. Więc można się spodziewać, że i w grach niedługo przestanie to być specjalnym problemem.
@Revendell|Aha, odnośnie tego, że „ta technologia jest ograniczona, postacie nie mają tak naprawdę kontaktu wzrokowego z otoczeniem, bo aktorzy nie widzą, gdzie są i w co patrzą”… Polecam mocapy z Wiedźmina 2, znajdziesz ich parę na yt. Zawsze tworzysz scenografię, która imituje otoczenie, stoły, markery wyznaczające klamkę drzwi, itp. Wystarczy, że obejrzysz making of intra do Wiedźmina 2, a zobaczysz, że specjalnie zbudowano równię pochyłą, która miała imitować pokład zapadającego się statku.
Problem dotyczy jedynie odległych scen, elementów, horyzontu, ale to już kwestia kasy, wyposażenia studia mocapowego… Tak naprawdę dodatkowa kasa na bajer, bez którego można się obejść.
@ ktoo|Po cholere sie dzieciaku wypowiadasz jak nie masz zielonego pojecia o cgi.|Eustachy ma racje, ta technologia dziala tylko wtedy kiedy postac wyglada dokladnei jak aktor.|@ noniewiem|ty w ogole o czym innym gadasz, tutaj nie jest wykorzytywany mocap do lapania mimiki twarzy.
A teraz dla tych co w ogole nei ogarniaja animacji szybko wyjasnie jak to dziala. Normalnie w modelach masz pewna ilosc punktow ktore lacza sie w kosci i tworza cos na wzor ludzkiego szkieletu, do nich sa przypisane vertexy z modelu ktore tworza polygony z uvmapami. Mozesz szukac podobnych punktow na ludzkim ciele i sledzic je kamera jak w normalnym mocapie, animowac recznie albo proceduralnie. Tak generalnie tworzone sa animacje w 99% procentach gier
Tutaj natomiast wykorzystuje sie 30+ kamer zeby stwozryc animowany scan 3d skladajacy sie z tysiecy albo milionow punktow, a na to jest nalozona prowizoryczna textura slepiona z setek zdjec ktore lapia te kamery. Secunda takeigo scany zajmuje gigabajty miejsca.|W obrobce na ten scan naklada sie duzo prostszy model z ladna uv mapa i wypala textury. I zamiast animowac kilka kosci, animuje sie kazdy punkt budujacy model osobno w kazdej sekundzie. Nie ma zadnych kosci ktore bys mogl zmodyfikowac recznie.
Choć nie znaczyże żę przy wielkim wysiłku nie dało by się tej technologji wykorzystać w normalnych grach, problem tylko w tym że starci sie te wszytkie detale ktore tutaj oni sie staraja zlapac ktorych normalnei nie ma z powodu malej ilości kości na modelach.|A wtedy po co ci te 30 kamer i 8 superkompoterow do obrobienia gigabajtow danych na secunde, jak ten sam wynik bedziesz mial z 3 kamer i kropek narysowanych na twarzy aktora.|A wiec zawszemodel bedzie podobny do aktora przy wykozystaniu takeigo scanowa
Jak to pierwszy? A Prince of Persia Dwa Trony? Jak się przeszło grę, to można było chyba w bonusach coś podobnego zobaczyć.
@slocik Może rzeczywiście w la noire jest inna technika do łapania ruchu twarzy chodziło mi tylko o to ,że wystarczy złapać wektor ruchy przenieść go na skin może to nawet być kwadrat a i tak będzie się poruszał, starcze.
@ktoo|A mi chodizlo o to zebys sie wymadrzal na tematy o ktorych nic nie wiesz, a tymabrdziej zarzucal komus innemu ze nie wie co mowi i jeszcze mial czelnosc ich poprawiac. To nie pierwszy raz kiedy taki numer odwalasz.|I jaki vektor jaki skin. Modele skaldajace sie z 500+ ruchomych punktow sa fizycznie niemozliwe do obrobienia recznie, stosunek wymaganej pracy do wynikow jest najzwyczajnie nieoplacalny. Mozna wykozystac 2 rigi na dokaldne animacje i ogolne, ale za cholere ich sie nie da wymieszac.
@slocik OK masz racje na temat technologi łapania ruchów twarzy i tym podobnym ,ale chyba mnie z kim mylisz pisząc że nie pierwszy raz odwalam taki numer bo postuje raz na rok może pół roku . Po za tym mówisz o czelności ? To tylko internet i komentarz nie sala sądowa i pamiętaj sam mówisz o wymądrzaniu się na tematy o których nic nie wiem a sam podpierasz się kłamstwem bezczelnie pokazujące twoją małą znajomość tej strony i użytkowników.