fbpx Skip to content

Az iPhone 8, 8 Plus és az iPhone X egyik újdonsága a 4K 60 fps felvételi mód. Ez azért jó, mert sokkal gördülékenyebbnek látjuk a felvételt, “mintha egy teljesen más világba csöppennénk”. Ezt egyébként még viszonylag kevés eszköz tudja, és itt most nem csak a telefonokról beszélek, hanem komoly, több százezer forintos fényképezőgépekről.

iPhone 8, 8 Plus és iPhone X 4K 60 fps felvétel

Az iOS 11-ben debütált nagy hatékonyságú HEIF/HEVC formátumoknak hála már sokkal kevesebbet foglalnak a fotóink és videóink, többek között emiatt is vált elérhetővé a 4K 60 fps felvétel. A 60 fps azt jelenti, hogy 60 képet készít a készülék másodperceként, ami miatt simábbnak tűnik a felvétel. Ennek persze hátránya is van.

Egyértelműen a nagyobb fps több fényt kíván, mint mondjuk a 30, vagy esetleg a 24. Ezáltal rosszabb körülmények között meg kell növelni az ISO tartományt, vagy éppen a záridőt. Emiatt több, úgynevezett zajt kapunk és rosszabb lesz a videó dinamikája is. Ahogy az alábbi tesztben is látszik, pont ez történik a 4K 60 fps használata közben. Nagyobb felbontást és összességében jobb minőséget kapunk, mivel ugye négyszer nagyobb, mint a full HD, de a részletekben már elvérzik a szenzor. Az iPhone X rosszabb körülmények között, bizonyos esetekben jobban teljesíthet, mivel a teleobjektíve ƒ/2,4-es fényrekeszt kapott.

Ez egyébként nem az Apple hibája, sajnos ekkora szenzorral nem nagyon lehet világot megváltani. A komolyabb DSLR-ek pedig azért nem képesek erre a felbontásra, mert akkor jóval erősebb processzort kéne belerakniuk és még drágábbak lennének. Egyelőre tehát csak akkor érdemes 4K 60 fps-sel felvételt készíteni, ha kifejezetten lassítani szeretnénk a videót, de szükségünk van a felbontásra is.

Látható-e a különbség a 30 és 60 fps között?

Igen, nézzétek meg ezt a videót, egyértelműen látszik a 60 fps előnye a minőségtől függetlenül:

Mi a helyzet 1080p esetén? Nos, iPhone 6 óta tudunk felvételt készíteni 1080p 60 fps-sel és azóta rengeteget fejlődött az iPhone-ban lévő szenzor, így ekkora különbséget nem fogunk már észre venni az újabb készülékek esetén. Viszont logikusan itt is több fényre van szükségünk 60 fps-nél.

Végül pedig nézzétek meg ezt az iPhone 8 Plus-szal készített 4K cinematic videót, ami 24 és 60 fps-sel készült. Patrick Tomasso a felvételkor semmilyen plusz eszközt, vagy objektívet nem használt, csupán a VSCO segítségével javította a színeket és megvágta Final Cut Pro-val.

[newsletter_signup_form id=3]

Olvasd el a hozzászólásokat is

16 Comments

  1. Nekem furcsán működik a kamera. Nálam a 4k nem játszik, mivel sima HD-s tv-m van, de az viszont igen.

    A 6-omon volt egy camera tweak nevü tweak-em, amivel be tudtam állítani 60 fps, ugyanaz a tv-m maradt, a 6-os videóit gyönyörűen tudtam cast-olni, 60 fps-el, viszont most a 8 Plus (ezt már gyárilag tudja), szaggat a tv-n, így visszaraktam 30 fps-re.

  2. “Az iPhone X rosszabb körülmények között, bizonyos esetekben jobban teljesíthet, mivel a teleobjektíve ƒ/2,4-es fényrekeszt kapott.”

    csak én nem értem, hogy mivel lesz jobb a nagylátószögű kamera esetén a helyzet attól hogy a teleobjektívnek jobb a fényrekesz értéke mint a 8 plusnak?

  3. Nagy ötlet álló virágokon tesztelni a 30 vs 60 fps különbséget…. Esetleg ha rohant volna, vagy az úton elhúzó kocsikat videózná, de így?

  4. @evone: placebo hatás…

  5. Akkor mire adtak ki egy halom pénzt? i8+

  6. @totopad: a HEVC lesz a különbség.

  7. @Jadeye: köszi, megpróbálom átállítani

  8. @evone: A kevesebb F érték miatt több fény jut a szenzorba, ezáltal, ha a teleobjektívet használjuk kevesebb iSO-t fog használni az iPhone, jobb minőséget kapsz.

  9. A kisebb f érték miatt jut több fény…

  10. Azt lehet tudni, hogy melyik efektet használta a VSCO-ban?

  11. Erdekes eloszor a 60fps.. olyan mintha gyorsitott felvetel lenne…

  12. @admin: én ezt nagyon is értem, ellenben attól hogy a teleobjekítvnek jobb a fényértéke, attól a főkamera nem lesz jobb. gondolom ezekben a videókban sem a teleobjektívet tesztelték. 🙂

  13. Ha már 2 kamera, ezt úgy lehetne megoldani, hogy mind2-t használja egyszerre a felvételre, és elosztják a képkockákat egymás között úgy, hogy 30-30 képkockát vesznek fel felváltva, és ezt szoftveresen össze lehetne gyúrni.

    Persze ehhez ugyanakkora méretű lencse kéne mindkét kamerához..

  14. @evone: Persze, azért is írtam, hogy “bizonyos esetekben” 🙂

  15. Van egy nagygyon szörnyű dolog ebben a világban amit nem tudunk befolyásolni, amit nem tudunk kikerülni, amit a legjobb technikai fejlesztésekkel is csak nagyon minimális mértékben tudunk ellensúlyozni…
    Úgy hívják FIZIKA!
    A megvilágítás (expozoció), a gyújtótávolság, a rekesz (ami az objektív felépítéséből adódik) mind a fizika által meghatározott dolgok. Ezekre még az Apple-nek sincs ráhatása.
    (ezért lóg ki a telefon vázából az obi)

    Minél nagyobb az fps annál kisebb e megvilágítás hossza adott időegység alatt. Tehát 60 fps mellett sötétebb lesz a felvétel azonos fényviszonyok között mint 30 fps mellett. (1/30 vs 1/60)
    Ezt max megérteni lehet, ezen változttatni max akkor fogunk tudni ha Istnek leszünk. Sajnos Steve Jobs sem volt az (akkor még ma is élne)
    Ergo felesleges fps-eken, rekeszértékeken, érzékenységen vitázni!
    Jelenlen nincs mód a fizikai paraméterek megváltoztatására! Legfeljebb szoftveres manipulációra.

  16. Tehát parasztvakítás. A videón a srác kb 30x elmondja hogy 4k 60fps nél sokkal több a zaj a videón,kiégnek a részek.Kérdem én akkor mi a fenének adták ki? Vagy meg kell csinálni tökéletesre “ahogy Apple szokta mindennel” vagy sehogy…


Add a Comment