А если перенести все декодирование в GPU вместо CPU? Есть такой вариант? (просто подумалось)...
Посторонний вопрос но интересный. Какой-то разговор может быть начиная с OpenGL 4.0 или выше, до этого таких понятий как "куча" и "выделение памяти" там просто нет. Можно создать только какое-то мизерное число переменных передающихся в шейдер. Ну и в принципе GPU (рендер) работает примерно так
- есть точка (x. y) - скажите цвет в
этой точке
Да, это работает с огромной скоростью (на то и бабульки снимались за карту), но увы - нельзя задать те (x, y) что хотелось, можно только "те что дали". В общем GPU реализация если и возможна, то несравненно сложнее простенького распараллеливания