так и есть.
DLSS работает при помощи нейросети,которая обучается на суперкомпьютерах. Ему подается куча кадров без сглаживания и каждый сравнивается с картинкой со сглаживанием MSAA. По итогу у юзеров будут самые оптимальные значения для нейросети . А в играх для нее задействуются отдельные RT ядра,а не CUDA ядра, из-за чего падение производительности незначительное. И то,что нейросеть обучается это видно. Между DLSS v2 и v1 огромная пропасть по качеству картинки и производительности.
А FidelityFX работает в разы проще. Понижается разрешение картинки, например с QHD на FHD и потом обратно аспкейлится до QHD. По итогу картинка будет хуже чем на настоящем QHD,но лучше,чем на FHD. Эффект практически тот же, как и от масштаба рендера. А все хорошие прелести у FidelityFX по типу denoiser доступны только на видеокартах на архитектуре RDNA