<div dir="ltr">On Thu, Oct 2, 2008 at 12:24 PM, Steven Mulvay <span dir="ltr">&lt;<a href="mailto:steven.mulvay@slingshot.co.nz">steven.mulvay@slingshot.co.nz</a>&gt;</span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
I think my picture problem is to do with deinterlacing. I have an ATI<br>
graphics card, which I understand is not good for hardware<br>
deinterlacing. I&#39;m thinking of replacing it with an Nvidia, what is the<br>
best Nvidia card for hardware deinterlacing?</blockquote><div><br>Deinterlacing in Myth is done by the CPU. Changing the video card won&#39;t make any difference. Just try the various deinterlacing methods and see which one looks best to you.<br>
<br>It&#39;s a different story if you&#39;re trying to output an interlaced  signal. In that case the card may make a difference, but frankly it&#39;s so hard to get it to output a correctly synchronised interlaced signal that even with an interlaced display it&#39;ll probably be easier to deinterlace anyway. Certainly I never had any luck getting a good looking interlaced signal working.<br>
<br>Cheers,<br>Steve<br></div></div></div>