Tack för svar, som jag skrev ovan så är kvantisering inte ett alternativ för min musik då jag gillar att ha kvar lite "human feel".
Jag är inte riktigt med på det du säger att det måste vara latency på det som spelar in. Eller jag förstår vad du säger, men samtidigt så kompenserar ju logic för latency för ljudspåret. Jag visar här, där jag spelar in klicket som logic skickar ut i hörlurarna med en mikrofon och visar att det ligger perfekt i logic trots att jag har 1024 i buffer size:
https://www.youtube.com/watch?v=KXTaTkpLcVQ&feature=youtu.be
Logic har alltså denna fördröjningen, men är medveten om exakt hur mycket fördröjning det är och hur den ska kompensera för det. Jag har ju ställt in recording latency på -69 samples. Det gör att ljudet hamnar precis perfekt där det ska, trots att buffer sizen är satt till 1024. Det funkar även på andra inställning av buffer size. Men med midi fungerar det av någon anledning inte. Det tycker jag är konstigt eftersom fördröjningen verkar ganska förutsägbar. Logic borde ju bara kunna spela in och sen automatiskt förskjuta hela midi-regionen när man stoppat inspelningen så man slipper göra det själv. För om jag spelar in t.ex. både ljud och midi samtidigt så kan jag ju själv se hur mycket ljudet (facit) ligger före midin (det som felar) och justera efter det.
När jag söker i andra forum efter svar på det här problemet verkar det som den vanligaste situationen är att det blir fördröjning när man triggar en mjukvarusynth i logic och ju lägre man sätter buffer size desto lägre blir latencyn när man spelar och det har jag full förståelse för. Men det är ju inte alls det som händer här. Jag har ju en hårdvarusynth som låter mer eller mindre direkt när jag spelar. Det är bara färdigt ljud midi som ska in i systemet. Den ena hamnar rätt och den andra hamnar fel. Hoppas jag har förklarat problemet lite tydligare.