Jump to content
Annons

Dr. D

Medlem
  • Antal inlägg

    66
  • Gick med

  • Senast inloggad

Rykte i communityn

0 Neutralt

Om Dr. D

  • Födelsedag 1971-11-10

Om mig

  • Kön
    Man
  • Stad/plats
    Stockholm
  1. Dr. D

    X-crackle

    Tror du ska ha in den allra först i kedjan, så nära originalfilen som möjligt. Om du låter klicken eller sprak gå igenom någon processning så blir det bara svårare att få bort dom sen. Tänk ett reverb tex smetar ju ut klicks som sen blir omöjliga att få bort. Ta bort först, processa sen!
  2. Ah, my bad... Intressant dock fortfarande att reda ut om skillnaden kan ha uppstått i någon annan del av kedjan än just CD-läsningen och S/PDIF överföringen.
  3. Vänta, någonting är lite skumt här... Varför normaliserade du igen? Om du inte gjort någon åverkan på spåret i processen att bränna CDn, och sen spelar in den via S/PDIF så borde nivån redan bli exakt samma som orginalfilen. Har någon testat att fasvända ena filen och mixa ihop dom? Borde bli komplett tystnad om inget blivit förvanskat på vägen (dvs filerna är exakt lika).
  4. Nope. Till PC laptop. Vad jag har hört dock så skall alla RMEs kort funka helt OK på Mac.
  5. Ja, fast just omvandlingen är en väldigt liten buffer, typ 1ms eller så. Den buffer/latency man ställer in på drivrutinerna till sitt ljudkort är buffern mellan datorn och ljudkortet. Den är till för att datorn säkert skall hänga med att läsa eller skriva alla bitar i tid. DA-omvandlingen lägger alltid på ytterligare ca 1ms på det efter datorn skickat den digitala signalen till kortet.
  6. Det är egentligen ingen skillnad mellan kablar för digital eller analog signal. En bra kabel kommer vara en bra kabel oavsett vilken signal som skall skickas igenom den. Faktum är att när man skickar digital information igenom en kabel så är det i slutändan ändå en analog signal som "går" i kabeln. Olika digitalformat har olika regler för hur en 1:a eller en 0:a görs om till signalström som skickas genom kabeln. Dom flesta format som används i dator- och audio värden är så kallade base-band encodings som betyder att man väljer två spänningsnivåer, tex +0,3 volt och -0,3 volt. Sen växlar man mellan dessa nivåer på olika sätt för att skicka en etta eller nolla. Ett exempel är bi-phase kodning som används i tex SPDIF. En etta kodas som en switch från den ena nivån till den andra, medan en nolla kodas som ingen switch. Efter varje etta eller nolla byter man alltid nivå. På det sättet får man en typ ojämn fyrkantsvåg. Mottagarsidan får en klocksignal att synka till eftersom det är minst en switch efter varje skickad bit. Det som är bra med digital överföring är att mottagaren är väldigt okänslig för små förvrängningar av signalen. Eftersom man vet att det som skickas alltid är antingen en etta eller en nolla så är det helt säkert att tolka en switch från +0,32V till -0,27V som en etta. En fluktuation från -0,33 till -0,26 är fortfarande en nolla. Det gör ingenting om fyrkantsvågen blir utsmetad till något som mer ser ut som mjuka sinusvågor, så länge dom två nivåerna är någorlunda särskiljbara. Dessutom har många digitala format regler för att skicka kontrolldata då och då, och kan begära att sändaren skickar om samma bitar igen om kontrollerna visar att något har missats (sk. error correction). Det är sån error correction som gör att man kan kopiera en fil hur många gånger som helst mellan diskar eller över internet utan att det faktiska innehållet (ettorna och nollorna) ändras. Enda gången som exakta nivåerna (och timingen) blir viktiga för digitala signaler är precis när den skall mata kretsarna i en DA-omvandlare. Den skall ju gör om den digitala (fyrkantsvågen) till den analoga signal som ettorna och nollorna motsvarar. Då är timing av switcharna och nivåer viktiga för att kvaliten på den analoga signalen skall bli bra. Dom flesta (smarta) DA omvandlare har därför en egen inbyggd buffer dit ettorna och nollorna kopieras först (från insignalen), sen matas själva DA kretsarna från buffern. Så digital överföring är alltså betydligt mindre känslig än när man skickar en direkt analog ljudsignal i en kabel. Det som ändå gör det lite svårt är att när man vill skicka väldigt många bitar per sekund så blir den resulterande (utsmetade) fyrkantsvågen av väldigt hög frekvens. En 24 bit 44,1KHz SPDIF stereo signal ger frekvenser upp till minst 4,2MHz (44100*2kanaler*24bitar*2nivåer per bit). Ethernet, Firewire och HDMI som skickar mycket mer data kräver att ännu mycket högre frekvenser kommer fram oförvanskade. Så kablar designade för digital överföring kan kanske hantera högre frekvenser än andra kablar. Fast det är just detta som visar på att det skall till tämligen dåliga kablar för att dom skall hörbart påverka en analog signal som ju inte behöver klara mycket högre än 20KHz. Dock är analoga signalen mycket känsligare förstås, den skall ju inte förvanskas alls. Av analoga kablar så blir kraven högst på högtalarkablar som ju måste kunna hantera både högre spänningar och mer strömstyrka i signalen. Men även där är det ganska lätt att räkna på gränsen när ytterligare finlir eller tjockare kablar inte längre spelar någon roll.
  7. Hej alla, Det börjar bli dags för mig att köpa nytt ljudkort! Har ett rme multiface (generation 1) som börjat glappa efter lång och trogen tjänst. Kommer behöva uppdatera dator också, lutar starkt åt en macbook (pro). Jag har läst en massa om moderna ljudkort och är ganska insatt i debatten USB vs FireWire vad gäller låg stabil latency. Jag var i princip övertygad om att jag ville ha ett FireWire kort denna gång. Tex presonus firestudio mobile som verkar vara perfekt för mig. Det som får mig att tveka nu är funderingar om framtiden för FireWire på lite längre sikt. Jag vill gärna att kortet jag köper nu skall funka också nästa gång det är dags för refresh av dator, vilket för mig betyder minst typ 5 år... Det var väl Apple som skapade FireWire(?). Och nu har tom dom skippat fw interface på sina macbooks (finns bara på pro). USB däremot har ju alla, och kommer i version 3 nu. Vad tror ni - kommer det finnas FireWire på burkarna man köper om 5 år? USB 3 eller 4 lär ju finnas, kommer det vara bra nog för professionell låg latency audio? Eller skall jag kanske strunta i vilket, bara köpa det som funkar bra nu och vara beredd att byta kort igen...
  8. Håller med! Misstänker starkt att det var total playback på dom. När dom gjorde låten andra gången hörde man ett par fraser i början som man tydligt såg att dom faktiskt sjöng live. Lät betydligt sämre också. Om det nu är så att det är tillåtet att ha inspelade bakgrundskörer så är det väl lite luddigt hur det skall tolkas om det är 4 leadsångare eller om dom är varandras kör...
  9. Tror inte du egentligen vill spela in några effekter hårt på audiospåren. Bättre använda automationen som du själv var inne på. Kan det vara så att du inte har software monitoring aktiverat så att du inte hör effekterna i realtid, och att det är det du var ute efter? /D
  10. +1 på det. Man vill fånga (stereo-) ljudet på en punkt där ljudbild och balans är bra. Båda mickarna på samma ställe alltså, ingen närmickning av vare sig piano eller sång. X/Y (eller ORTF) funkar alltid. M/S är kanske teoretiskt bättre eftersom du har två olika mickar. M/S ger dessutom viss flexibilitet för stereobilden i efterhand. /D
  11. Så här: http://stash.reaper.fm/3107/wdyrsla_061709.pdf. :-) Allvarligt, ett riktigt läsvärt dokument... /D
  12. Tackar, tackar! Denna fungerade bra för mig. Kanon! /D
  13. Det finns en lite nyare pdf av denna: http://stash.reaper.fm/3107/wdyrsla_061709.pdf . Den (eller tråden) är riktigt läsvärd!
  14. Riktigt bra dokument! Många kloka råd...
  15. Om du har råd att lämna bort den så rekommenderar jag också GuitarLabs i Bromma (Stockholm).
×
×
  • Skapa ny...