- Redaktionen
- Skribent ●
Nu har 99 fått in Apples Iphone XR till testlabbet. Ida berättar mer om telefonen och vårt kommande test från studion.
Det där är ett ord som inte är lätt att uttala, måste jag erkänna. Kommer ta ett tag att nöta in tydligen.
Jag hittar inga vettiga källor för uttal av ordet på svenska, bara japanska och engelska. Där är det [boʊkeɪ] (ungefär bowkay) respektive [boke] (uttalas neutralt, bokstav för bokstav).
Någon som kan förklara detta på svenska?
Förståelig engelska fungerar också ?
”Diamond Sub-Pixel displays have only half the number of Red and Blue Sub-Pixels as RGB Stripe displays. That’s why OLED-Displays with a pen-tile subpixel layout generally need much higher PPI in order to achieve the same sharpness as LCDs with RGB subpixel layout.
Some examples:
iPhone X:
Red 324 SPPI
Green 458 SPPI
Blue 324 SPPI
iPhone Xr:
Red 326 SPPI
Green 326 SPPI
Blue 326 SPPI
Samsung Galaxy Note 9:
Red 368 SPPI
Green 521 SPPI
Blue 368 SPPI”
Läste även att en 1080p LCD hade varit skarpare än apples OLED.
Någon som kan förklara detta på svenska?
Förståelig engelska fungerar också ?
”Diamond Sub-Pixel displays have only half the number of Red and Blue Sub-Pixels as RGB Stripe displays. That’s why OLED-Displays with a pen-tile subpixel layout generally need much higher PPI in order to achieve the same sharpness as LCDs with RGB subpixel layout.
Some examples:
iPhone X:
Red 324 SPPI
Green 458 SPPI
Blue 324 SPPI
iPhone Xr:
Red 326 SPPI
Green 326 SPPI
Blue 326 SPPI
Samsung Galaxy Note 9:
Red 368 SPPI
Green 521 SPPI
Blue 368 SPPI”
Lång historia kort! En pixel är egentligen flera "subpixlar" i rött, grönt, blått. Eftersom ögat är mest känsligt för grön färg finns det "fullt antal" av dessa, då det ger upplevd skärpa. I en pentile-skärm är sedan blå och röd färre. Det innebär konkret att skärmen egentligen har lägre upplösning för just blått och rött, ställt mot vad siffrorna anger.
LCD har däremot en av varje färg, alltid (i sammanhanget). Alltså samma upplösning för röd, grön och blå.
Huruvida detta sedan märks och i vilken omfattning, det bråkas friskt om.
Här är exempel från Wiki på hur en pentile-OLED är uppbyggd.
Kameran står ju högt i kurs att testa, såklart. Men det jag önskar mig är upplevelse av storleken. Tycker personligen att det är lite märkligt att de valde en storlek mellan de dyra. Vad jag hör på jobbet är att det är flera stycken som funderar på en XR. Det som håller dem tillbaka är storleken.
Kameran står ju högt i kurs att testa, såklart. Men det jag önskar mig är upplevelse av storleken. Tycker personligen att det är lite märkligt att de valde en storlek mellan de dyra. Vad jag hör på jobbet är att det är flera stycken som funderar på en XR. Det som håller dem tillbaka är storleken.
Så här långt funderar jag på varför jag valde en XS faktiskt. XR är inte alls mycket större men får två kolumner i liggande läge i appar som mejl å meddelanden. Det saknar jag från min förra Plus.
Så här långt funderar jag på varför jag valde en XS faktiskt. XR är inte alls mycket större men får två kolumner i liggande läge i appar som mejl å meddelanden. Det saknar jag från min förra Plus.
Mycket intressant! Känns den tung?
Porträttläget i svagt ljus är tydligen rejält bättre än XS.
Ja, det är inte ett dugg konstigt att ett objektiv med största (eller fast) bländare f/1,8 tar in mer ljus än ett objektiv med bländare f/2,4. Vad som förbryllar mig är varför inte Xs kan använda vidvinkellinsen för porträttfoto i svagt ljus.
Ja, det är inte ett dugg konstigt att ett objektiv med största (eller fast) bländare f/1,8 tar in mer ljus än ett objektiv med bländare f/2,4. Vad som förbryllar mig är varför inte Xs kan använda vidvinkellinsen för porträttfoto i svagt ljus.
Ja, det är begripligt att det blir som det blir när de gör som de gör:) Men det är nog Inte omöjligt att de ändrar på det i kommande uppdateringar.
Jag förstår dock att de använder telefotolinsen för porträttfoto i bra ljus.
Och som Gruber skriver - det är ett specialfall - svagt ljus som går att att komma runt genom att lämna porträttläget.
Daring Fireball:
Portrait Mode on the XR has a few other limitations. For one, it only works with human faces. [...] It won’t work with dogs, and it won’t work with faceless mannequins. Portrait Mode on the iPhone XS, on the other hand, although optimized for human faces, will work with inanimate subjects, whether human-like or not.
Men det är nog Inte omöjligt att de ändrar på det i kommande uppdateringar.
Don't hold your breath..
Nä:)
"Problemet" med att XR bara känner igen mänskliga ansikten går att komma runt genom att sätta fokus manuellt. Jag använder ofta porträttläget till annat än porträtt och sätter då fokuset där jag vill ha det.
Nä:)
"Problemet" med att XR bara känner igen mänskliga ansikten går att komma runt genom att sätta fokus manuellt. Jag använder ofta porträttläget till annat än porträtt och sätter då fokuset där jag vill ha det.
XR säger bara att den inte hittar någon människa. Verkar faktiskt inte kunna använda porträttläget till att fota annat.
Nä:)
"Problemet" med att XR bara känner igen mänskliga ansikten går att komma runt genom att sätta fokus manuellt. Jag använder ofta porträttläget till annat än porträtt och sätter då fokuset där jag vill ha det.
Nej, det fungerar inte så. På en Plus-modell eller X(s) med flera kameror kan mjukvaran bygga upp en "depthmap" genom att jämföra bilderna från de olika kamerorna på samma sätt som vi människor bygger upp ett djupseende genom att använda båda våra ögon. "Depthmapen" används sedan för att maskera ut de delarna av bilden som ligger i rätt djup och applicera oskärpa på resten av bilden.
På en iPhone Xr (eller en Pixel telefon) så används igenkänning av objekt i bilden som bygger en falsk "depthmap", eller egentligen en mask, för att kunna hoppa till sista steget ovan och applicera oskärpa på bakgrunden. Vad olika telefoner kan känna igen varierar och det förefaller som att Xr endast använder ansiktsigenkänning för sitt porträttläge. Skillnaden är att det ena är fysik, avståndet mellan kamerorna ger djupet. Det andra är en ren gissning av vad som är långt borta och nära.
Nej, det fungerar inte så. På en Plus-modell eller X(s) med flera kameror kan mjukvaran bygga upp en "depthmap" genom att jämföra bilderna från de olika kamerorna på samma sätt som vi människor bygger upp ett djupseende genom att använda båda våra ögon. "Depthmapen" används sedan för att maskera ut de delarna av bilden som ligger i rätt djup och applicera oskärpa på resten av bilden.
På en iPhone Xr (eller en Pixel telefon) så används igenkänning av objekt i bilden som bygger en falsk "depthmap", eller egentligen en mask, för att kunna hoppa till sista steget ovan och applicera oskärpa på bakgrunden. Vad olika telefoner kan känna igen varierar och det förefaller som att Xr endast använder ansiktsigenkänning för sitt porträttläge. Skillnaden är att det ena är fysik, avståndet mellan kamerorna ger djupet. Det andra är en ren gissning av vad som är långt borta och nära.
Aha...
Tack för informationen. Det var intressant - visar på risken att anta för mycket
(Vilket jag gör hela tiden:)
"Problemet" med att XR bara känner igen mänskliga ansikten går att komma runt genom att sätta fokus manuellt. Jag använder ofta porträttläget till annat än porträtt och sätter då fokuset där jag vill ha det.
Precis som beh skriver så går detta att använda på alla iPhones med dubbelkamera, men jag gissar att du inte gör detta på en Xr.
På en iPhone Xr (eller en Pixel telefon) så används igenkänning av objekt i bilden som bygger en falsk "depthmap", eller egentligen en mask, för att kunna hoppa till sista steget ovan och applicera oskärpa på bakgrunden. Vad olika telefoner kan känna igen varierar och det förefaller som att Xr endast använder ansiktsigenkänning för sitt porträttläge. Skillnaden är att det ena är fysik, avståndet mellan kamerorna ger djupet. Det andra är en ren gissning av vad som är långt borta och nära.
Jag vet att andra kameror/telefoner har använt små rörelser för att skapa ett djupseende, ungefär som ugglor gör när de rör på huvudet (deras ögon sitter väldigt tätt ihop vilket innebär dåligt djupseende, därför rör de huvudet i cirklar för att få bättre djupseende). Undrar om Xr använder något liknande i kombination med bildanalys? Skulle vara sjukt mycket smartare än bara motivdetektion.
Läste även att en 1080p LCD hade varit skarpare än apples OLED.
nu har ju iphone med sina 1125x2436 pixlar bara 45 pixlar fler än 1080p eller ca 4% och då pentile har 33% färre subpixlar blir det rätt stor skillnad. Frågan är ju om man märker någon skillnad.
Precis som beh skriver så går detta att använda på alla iPhones med dubbelkamera, men jag gissar att du inte gör detta på en Xr.
Korrekt, jag tillhör inte de häftiga som får en förhandsrecensionsexemplar
Suck! Man blir ju trött alltså.. trött på alla mouthbreathers där ute som inte lever upp till samma höga kvalité som 99-videor gör med relevanta och pålästa fakta! Som vanligt en ypperlig video presenterad på ett fint sätt.
Ser verkligen fram emot lite tester-resultat med mera i och med att jag är lite i valet och kvalet vilken lur som blir nästa
nu har ju iphone med sina 1125x2436 pixlar bara 45 pixlar fler än 1080p eller ca 4% och då pentile har 33% färre subpixlar blir det rätt stor skillnad. Frågan är ju om man märker någon skillnad.
Är ju inte många som förstår detta i LCD vs Oled.
Inte ens jag gjorde det.
Är ingen som tar upp det när de spyr galla på Xrs skärm
nu har ju iphone med sina 1125x2436 pixlar bara 45 pixlar fler än 1080p eller ca 4% och då pentile har 33% färre subpixlar blir det rätt stor skillnad. Frågan är ju om man märker någon skillnad.
Är ju inte många som förstår detta i LCD vs Oled.
Inte ens jag gjorde det.
Är ingen som tar upp det när de spyr galla på Xrs skärm
Kan ni förklara för en som inte förstår hur Xr/Xs skärm bara har 45 pixlar fler än 1080p?
Så som jag räknar har en 1080p 1920x1080 pixlar att driva = 2073600
Men Iphonen har 1125x2436 = 2740500
På höjden skiljer det ju 45 pixlar med på bredden desto fler. Har detta att göra med RGBG layouten i OLED-skärmen?
Jag kan villigt erkänna att jag inte har full koll på hur OLED fungerar jämte LCD. Kanske nåt för @Redaktionen att sätta @Thomas Ytterberg på att knåpa ihop en artikel för att förklara (om det inte gjorts innan dvs)?
Men jag antar att exempelvis Netflix m fl skalar ned videon till 720p vid uppspelning? Och då lär det väl påverka bildkvaliteten? ?
Förstår att det finns människor som faktiskt kollar på serier/film på en smartphone men har svårt att tänka mig att man ser skillnad på 1080/720, testade 4k abbonemang på Netflix till min tv och det gav inget mot fullhd.
Jag kollar alltid på en iPad i farten men youtube-klipp blir det ju lite i iPhonen men inte för kvaliten, dock skalar de äldre iPhones (6,7,8) ner klippet från 1080 på youtube iaf.
Eftersom skärmen på iPaden är 4:3 får jag bara över 9.63” till en 16:9-rulle vilket är godkänt för mig i sängen eller soffan.
Däremot är jag allergisk mot att förstora ett 16:9-klipp på en 18:9 mobil, känns som att gå tillbaka till 90-talet när man såg en förstorad 16:9-VHS på en 4:3 tjock-tv.
Förstår att det finns människor som faktiskt kollar på serier/film på en smartphone men har svårt att tänka mig att man ser skillnad på 1080/720, testade 4k abbonemang på Netflix till min tv och det gav inget mot fullhd.
Jag kollar alltid på en iPad i farten men youtube-klipp blir det ju lite i iPhonen men inte för kvaliten, dock skalar de äldre iPhones (6,7,8) ner klippet från 1080 på youtube iaf.
Eftersom skärmen på iPaden är 4:3 får jag bara över 9.63” till en 16:9-rulle vilket är godkänt för mig i sängen eller soffan.
Däremot är jag allergisk mot att förstora ett 16:9-klipp på en 18:9 mobil, känns som att gå tillbaka till 90-talet när man såg en förstorad 16:9-VHS på en 4:3 tjock-tv.
4k mot HD är det inte många som kan se skillnad på. Förklarat här.Vad gäller HD och 720p är det nog fler som kan se skillnad. Och nu är ju skärmen ändå ganska stor på Iphone Xr. Men om det är någon betydelsefull skillnad återstår att se.