Klady rozdelenia dat do viacerych tabuliek vyrazne prevysuju pred zapormy.
Databazy su na to stavane, spajanie tabuliek maju radi

Execution plan je cacheovany, takze pokles vykonu pri vyberoch nebude meratelny (kludne si to skus). Vacsia "zloba" su zbytocne velke tabulky so sirokymi riadkami.
Ako uz samotny nazov
DEnormalizacia hovori, ide o opacny postup k normalizacii (co je to o co sa pri navrhu datovej schemy obycajne snazime). Sice moze priniest zvysenie vykonu, al epochybujem ze v tvojom pripade sa to nejako prejavy. Normalizacia na druhej starne prinasa oddelenie dat ktore maju iny vyznam.
Rozhodnutie je na tebe. "Cista" prehladna datova schema, alebo usetrenie mikrosekund?