- Pluffo
- Medlem ●
- Stockholm
Hej!
Jag håller på att förbereda stimulibilder till ett psykologiskt experiment som jag ska göra och skulle behöva lite input beträffande hur jag ska gå till väga om någon skulle kunna hjälpa mig med det.
Vad jag ska göra är att presentera ett antal bilder för mina försökspersoner och mäta deras pupillstorleksförändringar. Vad som är viktigt är att skillnaden i pupillstorlek mellan olika bilder inte ska bero på någon skillnad i ljusstyrka ifrån bilderna i sig, utan på grund av deras emotionella innehåll. Således skulle jag behöva ta ett antal bilder och göra så att den totala styrkan på ljus som de utstålar blir samma för dem allihopa. Till saken hör att jag måste hitta en rutin för att göra detta fort eftersom en del av försöket går ut på att ta 12 bilder, och en halvtimme senare ha dessa klara för presentation. Således tänkte jag bygga ett Applescript som bearbetar alla bilder i ett svep (det vill säga, skalar om dem till rätt upplösning, gör om dem till gråskala och sätter ljusvärdena rätt).
Utan att direkt vara speciellt inne på sådant här så misstänker jag att jag borde kunna åstadkomma någonting i Colorsync.
Min första fråga är; hur bör jag gå till väga för att bildernas ljusstyrka ska bli desamma? Det bör tilläggas att bilderna kommer ifrån helt olika källor så justeringen måste ta bildens aktuella värden med i beräkningen snarare än att bara applicera en viss gamma-förändring.
Tacksam för all input jag kan få!
Glöm ColorSync, det har ingenting med detta att göra (åtminstone inte i det här skedet)
Photoshop är programmet, men däremot är det ett väldigt trixigt område ändå. Nog för att det går att analysera histogram etc. och kompensera för avvikelser, men jag är inte riktigt säker på att det kommer att fungera att utgå från den sortens genomsnitt, eftersom ögat är olika känsligt för ljus av olika våglängd, och dessutom justerar sig ögat troligen efter bara en viss del av bilden, snarare än hela.
Personligen skulle jag börja med att öppna några av de bilder du ska använda, konvertera dem till LAB, ta fram histogrampanelen och lägga särskild vikt vid Luminans-kanalen (där du kan se medel-och medianvärden) och sedan justera bilderna så du har likvärdiga förhållanden. Efter det kan du undersöka om de upplevs som lika ljusa (långt ifrån säkert)
Kan du inte vända på steken så att dina testbilder tas under liknande ljusförhållanden?
Om inte tror jag kanske att du gör bäst i att prata med en van photoshop-retuschör som kan göra den sortens justeringar just utifrån hur bilden upplevs, snarare än från en matematisk beräkning.
Hej Richard! Tack för ditt svar!
Detta är en pilotundersökning som måste genomföras på hyfsat kort tid vilket innebär att jag inte har tid att ta alla fotografier själv. Annars är detta naturligtvis det optimala och det är också så det kommer att bli i framtida mer rigorösa versioner av experimentet. Just nu måste jag dock arbeta med vad jag redan har och då är det en allehanda blandning av olika bilder ifrån olika kameror ifrån olika platser ifrån olika tider med olika belysning.
Du tror alltså inte på möjligheten att göra det här på mekanisk väg, det vill säga, i slutändan överlåta bedömningarna till en dator snarare än till en människa? Inte ens med ett medelmåttigt resultat snarare än ett bra sådant? Problemet är som sagt att jag kommer att ha ett set med bilder som vid försökstillfället på 30 minuter ska kompletteras med 12 nya. Jag blir nästan mörkrädd när jag tänker på tidspressen som skulle uppstå om dessa 30 minuter skulle tillbringas med PS (eller Pixelmator i mitt fall) i ett försök att få ordning på någonting.
Photoshop har en funktion som heter "Matcha färg" som är lite den tanke du har, och likaså kan man ju testa Autonivåer och Autofärg etc. kanske skulle de automatiska justeringarna vara bättre än inget?
Annars kanske jag får komma med ett förslag, nämligen att du testar hur pupillreaktionen är på bilder med motsvarande skillnader i luminans etc men där motiven inte är "emotionella" dvs. meningslösa vardagsbilder. På så sätt får du ju en kontrollgrupp av bilder.
Ja, jag ska kolla in någon typ av automatisk justering och se vad det kan ge.
Jag ska tänka på det här med eventuella kontrolltest. Om jag dock skulle göra någonting sådant så skulle jag ju vara tvungen att veta om två bilder liknade varandra i luminans, vilket ju är lite av det som är problemet i sammanhanget. Om jag vet om två bilder har samma luminans så borde jag väl kunna justera två bilder med skild luminans så att de får samma värde?
Ja, jag ska kolla in någon typ av automatisk justering och se vad det kan ge.
Jag ska tänka på det här med eventuella kontrolltest. Om jag dock skulle göra någonting sådant så skulle jag ju vara tvungen att veta om två bilder liknade varandra i luminans, vilket ju är lite av det som är problemet i sammanhanget. Om jag vet om två bilder har samma luminans så borde jag väl kunna justera två bilder med skild luminans så att de får samma värde?
Det är inte det att det inte går att beräkna matematiskt, men jag är ytterst tveksam till att det får den effekten du vill ha. Föreställ dig en kvadratisk bild där ena halvan är svart och andra vit, och jämför sedan med en till kvadratisk bild där hela ytan är grå. Bilderna kanske har samma luminans, men de påverkar för den sakens skull inte betraktaren (eller hans/hennes pupill) på samma sätt. Ännu mer komplicerat blir det när man börjar ta färger i beaktade, och i synnerhet med beaktade att vår känslighet för luminans är olika för ljus av olika våglängd. Till det kommer en påverkan om bildens storlek, huruvida den faller inom den foveala, parafoveala eller perifera sektorn.
Därmed inte sagt att du bör låta bli att justera bilderna – det låter vettigt – men jag tror att det blir svårt att helt eliminera den faktorn, vilket då rimligen bör leda till att du funderar på hur du kan bedöma och kompensera för avvikelser som härrör från den sortens skillnader i bilderna.
Jag bifogar min favoritillustration på temat hur felaktigt man kan uppfatta färger. (ruta A och ruta B är alltså identiska vad gäller färg och luminans)
Frågan är dock huruvida illusioner som dessa påverkar pupillreaktionen. De nödvändiga tolkningarna för att fälten ska upplevas som likartade sker ju inte för än en bra bit upp i hierarkin i occipitalcortex. Är det någon som har någon koll på om dessa processer återspeglas i pupillstorleken? Nu när jag tänker efter så har jag inte speciellt bra koll på var pupillstorleken regleras ifrån i över huvud taget.
Det där är fanimig helt sjukt
Här är lite fler exempel på samma sak:
@Richard: Du har naturligtvis helt rätt. Detta är en aspekt som jag också är bekymrad över. Det vill säga (jag tänker högt här), man skulle kunna tänka sig ett program som läser av hur vit varje pixel i en bild är (jag tänker mig en bild i en gråskala nu), räknar fram ett totalvärde och sedan ser justerar samtliga bilder så att de får samma totalvärde men behåller ljusskillnaderna mellan pixlarna (förutom på de ställen där ljusvärdet slår i taket eller hamnar i botten, förutsatt att förändringen sker linjärt över alla punkter), men detta skulle som sagt inte garantera att en pupill förhåller sig på samma sätt till dem eftersom det kan finnas stora skillnader i hur de är uppbyggda.
Dock, om man tänker sig en serie med bilder som var helt randomiserade (det vill säga, varje pixelvärde sätts som ett resultat av en slumpvariabel) så borde väl en sådan här approach fungera hyfsat bra?
Min intuition säger mig att en sådan här justering skulle vara vettig i det att den antagligen skulle föra bilderna i fråga _närmare_ varandra utan att för den sakens skull sudda ut skillnaden mellan dem med avseende på pupillrespons.
Jag börjar mer och mer inse värdet av att ha kontroll på källmaterialet, det vill säga, att själv ta alla fotografier Det jag framförallt är orolig över beträffande en manuell approach där jag justerar bilderna utifrån mitt egna subjektiva tyckande är dels att jag inte är någon expert på området och således skulle behöva plocka in någon utomstående, vilket dock kommer att bli svårt eftersom jag inte har några sådana kontakter direkt, och dels att jag känner mig osäker på att justera bilderna som ska ut på en halvtimme med någon slags precision. Vad jag kan tänka mig här är att man skulle fixa alla bilder på förhand, ta några testbilder med kameran, justera dessa bilder tills dess att de stämmer överens med de övriga, för att tillslut skriva upp dessa världen och hoppas att ingen sparkar till ens ljusrigg så att de efterkommande bilderna blir annorlunda.
@gabriela: Tack. Matlab har dykt upp om och om igen i mina efterforskningar och det verkar som om det är detta program som jag kommer att få använda mig av om jag vill göra automatiska justeringar över ett större antal bilder. Jag blev dock inte helt på det klara med om COLORLAB på något sätt var anpassat till mänsklig perception eller om det bara handlade om direkt manipulerande av fysiska värden så att säga men det lär väl visa sig när jag tar en närmare titt på det.
P.S Nakenheten uppskattades.
om det är iris reaktion på "chock-faktorn" av bildens innehåll som är intressant, behöver väl inte ens bilderna i serien vara korrigerade till samma luminans - det kan väl räcka att man visar en "mellanbild" med liknande (lokal) luminanser som en efterföljande (potentiellt) "läskig" undersökningsbild..?
i så fall skulle jag föreslå att du visar en version av varje bild med exvis kraftigt oskärpa (så kraftig att det är omöjligt att ens gissa i bildens innehåll) och ev kontrastkorrigering innan den "riktiga bilden".
då får du även en baseline på hur mycket testpersonens iris "jobbar" när personen betraktar en "vanlig" innehållslös bild med varierande luminans.
Fantastiskt intressant!
Jag har gjort samma sak fast med ljudstimuli. Det är ju lättare att kompensera för upplevd ljudstyrka (loudness). Men jag använde ansikts-emg och skinnkonduktans för att mäta emotionella responser. Det har ju fördelen att pupillerna inte är inblandade i mätningen...
Annars kan du kanske ha dubbla uppsättningar av bilderna med två olika luminanstal. Då borde du kunna skilja luminanseffekten från inehållseffekten?
Mvh
/genell
@gabriela: Bra idé. Om det hade handlat om läskiga stimuli hade det nog inte varit genomförbart då amygdala (hjärnområde som bland har mycket med rädsla att göra) har en förmåga att reagera på extremt suddiga bilder (och om man skulle göra dem ännu suddigare så kan man nog inte längre garantera att pupillens reaktion är densamma längre, som framgår av diskussionen ovan) och avläsa till exempel om personen i fråga är arg eller inte.
Testet som jag ska göra är ett test där vi ska se om vi kan få någon respons baserat på omtyckande av ett stimuli (som i det här fallet är en person som de träffat tidigare). Jag är inte säker på i vilken utstäckning en person (omedvetet) klarar av att känna igen ett suddigt ansikte dock. Klart är dock att människan har en ganska stor förmåga att göra just detta. Denna försöksdesignen skulle således introducera ett nytt moment där jag var tvungen att ta reda på huruvida försökspersonen ändock kände igen stimulit. Detta är visserligen genomförbart men om jag ska lägga ner så mycket tid (vilket var problemet att jag inte kunde göra eftersom det bara rör sig om en pilotundersökning) så skulle det nog vara bättre att lägga den på att fotografera nya bilder under liknande ljusförhållanden istället.
Men jag ska tänka på förslaget. Kanske kan det komma till användning på något sätt ändå.
@genell: Ansikts-EMG, intressant! Vi har pratat om att använda det i framtiden. Får jag fråga var du gjorde detta någonstans? Och tyckte du att det fungerade bra?
Hmm...Ja, jag skulle kunna ha flera uppsättningar av ett och samma stimuli med olika luminans. Dock känns det som att detta också skulle innebära en nedrans massa korrigeringsarbete. Till exempel så måste jag då kontrollera för ordningseffekt (eftersom reaktionen antagligen kommer att skilja sig mellan första och andra visningen av stimulit).
Jag har dock börjat tänka i banor av kontroller hit och dit. Måste suga på den här karamellen ett tag.
Var? På Chalmers, tro't eller ej
Annars görs det till viss del också på psykologiska inst. på göteborg universitet.
Jo, det funkar hyggligt men kräver att man gör ett antal repetitioner och kalibrerar så att man får en användbar baseline.
Ordningseffekten bör väl gå att undvika genom att ha t.ex. två uppsättningar stimuliordningar (typiskt en slumpmässig, och en som är samma slumpmässiga ordning presenterad baklänges)
Allt detta är ju egentligen off-topic så skicka gärna ett PM så kan vi ta det utanför tråden.
Mvh
/genell
Pupillstorleken regleras reflexmässigt av en ringmuskel som i sin tur styrs av det parasympatiska nervsystemet (mer specifikt av ett ganglion strax bakom ögat som presynaptiskt är kopplat till hjärnstammen, typ). Den egentliga hjärnan behövs alltså inte.
Jag tror inte pupillstorleken har någon avgörande betydelse för hur vi tolkar vi upplever illusioner eller reagerar på bilders innehåll i allmänhet (prova att titta på en bild med eller utan solbrillor). Om det omvända är möjligt, dvs att pupillen ändras beroende på vad vi ser i en bild, vet jag inte men eftersom det är det som du ska mäta antar jag att du förväntar dig någon typ av mätbar reaktion.
Jag vet inte hur du tänkt mäta pupillrörelserna och om du tänkt använda dig av absoluta termer (t.ex. mm) eller relativa (t.ex. % av max eller min) mått på förändring. Det senare kanske är bättre eftersom olika personer har olika rörlighet i pupillen. Dessutom är ett relativt mått på förändring sannolikt mindre känsligt för skillnader i bildernas ljusstyrka. En relativt skala förutsätter dock att du kalibrerar varje testperson längs en ljustransekt (mörker-jätteljust). Undvik atropin
Jag tror att du gör det mycket svårare än du behöver.
pupillen kommer nog att förändra sig oavsett, det kan ju handla om olika djup och att ögat vilar efter blinkningar.
Sätt ett gränsvärde för minimal storlek på pupillen och lägg till ytterligare en variabel att korrelera med för att ge din undersökning mer statistisk tillförlitlighet, (så att du kan bevisa att du verkligen mäter det du avser att mäta) exempelvis hjärtslag
Lycka till
Sodemus, låt gif:en läsas in så framträder en svart mask som avslöjar allt.
Wow, ska jag vara ärlig så hade jag faktiskt läst in gif:en men var så övertygad om vad jag såg att jag trodde det var fel på den. Bara en svart ruta med 2 grå rutor, jag var tvungen att hålla för med händerna för att övertyga mig om att det var samma blåa och gula ruta jag såg.
Häftigt!