Denna delen av 99 uppdateras inte längre utan har arkiverats inför framtiden som ett museum.
Här kan du läsa mer om varför.
Mac-nyheter hittar du på Macradion.com och forumet hittar du via Applebubblan.
tylerdurden

tylerdurden

Medlem
  • Registrerad 2003-09-27
  • Senast aktiv 2008-12-23
  • Antal inlägg 23

Foruminlägg

De senaste inläggen tylerdurden har skrivit i forumet.

Vanliga DVDer använder enbart Standard Definition (SD - i Sverige 576 pixlar hög). För få HD upplösning (1920x1080 t.ex.) måste du bränna HD-DVD eller BlueRay. Eftersom din PS3 kan spela BlueRay så är det förmodligen enklare för dig. För att bränna en BlueRay skiva behöver du en BlueRay brännare (externa finns att köpa, Apple har dem inte i någon mac idag) och mjukvara som kan bränna BlueRay (skulle gissa att Toast stödjer det).

Lycka till!

Ursprungligen av Shattapp:

Satt just och funderade i samma bana. Även om det är så att Windows är konstruerat på ett mer osäkert sätt jämfört med exempelvis OSX.

På vilket sätt är Windows konstruerat på ett "mer osäkert sätt" än OSX?

Ursprungligen av Simon Templar:

Inte helt dumt, det är massprodcerad mjukvara och operativsystem som man kan tjäna stora pengar på

Vilken mjukvara är inte massprducerad?

kass mus troligen. Testa USB overdirve, det kanske löser problemet.

talar vi om en förskjutning av ljudet i tid i förhållande till videon, eller pratar vi om när video och ljud alteftersom driver luangre och längre ifrån varandra?

Om det är en förskjutning så kanske du inte satt in/out i både video och ljud, utan bara en av dem?

Om det är drift så kanske ditt ljud av någon anledning inte använder sig av samma framerate som videon.

Umm... det förklarar dock inte varför vi har exakt 25 fps i Sverige (och inte 24.98 eller så), trots att vi numera har färg-TV. Eller missförstod jag förklaringen med elnäten?

secsec,

Det du talar om kallas DV start/stop detection, alltså att programmet vid inhämtning av video från band känner av var någonstans kameran stoppades och startades igen, även om tidskoden är kontinuerlig. I allmänhet detekterar program sådant genom att titta på time-of-day stämpeln i varje bildrutan i DV strömmen. Om det skiljer mer än en sekund från en bildruta till nästa så vet programmet att kameran har stoppats och det börjar då spela in till en ny fil. Notera att det bara fungerar med material från DV familjen (DV25, DV50, DV100) eftersom de är de enda format som har dessa tidsstämplar i videoströmmen.

iMovie gör enligt ovan, liksom Premiere som du mycket riktigt beskriver. I FCP har man valt att göra det till en funktion man använder i efterhand. Hämta in ett klipp, och välj sedan DV Start/Stop Detect i Mark-menyn. FCP sätter då ut markers där kameran stoppades och startades, så du lätt kan hitta dessa ställen.

Vad jag vet finns det inget sätt i FCP att dela upp klippet i flera filer vid inhämtning från kameran, men å andra är det knappast nödvändigt heller. Vad du är ute efter är ju knappast fler filer att hålla redan på på hårddisken, utan att lätt kunna hitta till ställena där kameran stoppades och startades.

Ursprungligen av Joakim Halvarsson:

Du är medveten om att du snackar med en av sveriges mest erkända utvecklare för Mac-plattformen? Ingemar är den sista jag skulle ifrågasätta när det gäller programmering.

Vad gäller hans trovärdighet så är den större än vad din är, och jag tror många håller med mig.

Visst, Ingemar är utvecklare av småprogram. Mest (uteslutande?) Carbon, vad jag förstår. Det är ju förstås bra, i alla fall för de eventuella användarna av hans program.

Att vara utvecklare är ju dock inget som automatiskt ger dig trovärdighet. Vad som däremot gör det är väl underbyggda argument, och de lyser med sin frånvaro.

AJA, BlackMagic och Decklink säljer alla PCI kort och firewire boxar som kan plocka in video via composite. De vänder sig främst till proffsanvändare, men kanske någon av dem har en billgare variant.

FCEs manual skirver en hel del om olika kompressionsformat också, kika på det.

Göran,

Det beror helt på vad du är ute efter. "göra en QT" säger inte särskilt mycket. QuickTime är ett s.k. container format, vilket innebär att olika QT filer kan ha olika kompressionsmetoder (codecs). Att säga "göra en QT" är alltså ungefär analogt med säga "göra ett dokument". I inget av fallen specifieras vilken sorts dokument eller vilken codec som skall användas för QT filen.

Om man antar att du filmat i DV-PAL (vilket de allra flesta DV kameror som säljs i Sverige gör), så finns det i princip ingen poäng med att gå till en codec med bättre kvalitet. Ditt material är av DV kvalitet, och ingen kompressionsmetod kommer att ge det bättre kvalitet. "Skit in, skit ut" gäller definitivt i detta fall.

Så om du enbart vill exportera ditt material för visning på datorn så är DV-PAL ett bra val. Vill du lägga upp det på webben så vill du förmodligen exportera till ett annat format som tar mindre plats (till exempel MPEG-4).

Övriga alternativ i menyn är för andra användningsområden, och en del av alternativen är lite äldre och minns med mest av kompatibilitetsskäl.

Ett annat alternativ är att använda FCPs funktion Digital Cinema Desktop. Det är gratis om du redan har programmet. Inte exakt färgåtergivning, men funkar bra för det mesta annat. Med två skärmar kan du dedikera en av dem till DCD. Annars kan du ställa in det så att du går till fullskärm så fort du startar playback i programmet.

Vet inte vad andra program har, men skulle inte bli förvånad om de har liknande funktioner.

Om du verkligen är mån om att få med allt material så skall du undvika live recording. Minsta lilla hickup och du missar en del av ditt material.

Om du trots allt vill spela in live, så är det en god idé att stänga av "abort capture on dropped frames", eftersom den inställningen annars kommer stoppa inspelningen vid minsta lilla problem. Du missar kanske några frames, men hela inspelningen stoppas i alla fall inte.

Att stänga av den inställningen är riskfyllt dock, eftrersom ett klipp med dropped frames inte kan hämtas in igen från bandet utan problem.

Definitivt.

Dela en iCal kalender.