Windows Server 2012 R2の重複除去でパフォーマンスを最適化するボリュームサイズは10TB以下だそうです。おそらく、データのディスクの有効活用からこの機能を有効にしているところがあるかと思いますが、2012 R2の場合は、あまり大容量では利用できないようです。
一方、Windows Server 2016の場合は、機能が改善されてかなり大容量まで利用できるようになりました。
マイクロソフトの公開情報からの抜粋です。
以下に記載がある通り、Windows Server 2012 R2 では、最適化ジョブがデータ変化の速度 ("チャーン") に対応できるように、ボリュームのサイズを10TB以下にしなければパフォーマンスがでなかったそうですが、一方、2016の場合は、ボリューム 64 TB までのデータ重複除去で非常に高いパフォーマンスを達成できるそうです。
Windows Server 2012 R2 でデータ重複除去のパフォーマンスを最適化するには、最適化ジョブがデータ変化の速度 ("チャーン") に対応できるように、ボリュームのサイズを適切に設定する必要がありました。 すなわち、ワークロードの書き込みパターンによっても異なりますが、通常は、ボリューム が 10 TB 以下でなければデータ重複除去で高いパフォーマンスを達成できません。
Windows Server 2016 では、ボリューム 64 TB までのデータ重複除去で非常に高いパフォーマンスを達成できます。
動作の相違点も参考までに抜粋しておきます。
Windows Server 2012 R2 のデータ重複除去ジョブ パイプラインでは、ボリュームごとにシングル スレッドと I/O キューが使用されます。 最適化ジョブが遅れてボリュームの全体的な削減率が低下しないようにするには、大きいデータセットを小さいボリュームに分割する必要があります。 適切なボリュームのサイズは、そのボリュームで予想されるチャーンに応じて決まります。 最大サイズの平均は、チャーンが高いボリュームでは約 6 - 7 TB、チャーンが低いボリュームでは約 9 - 10 TB です。
Windows Server 2016 では、データ重複除去ジョブのパイプラインの設計が見直され、ボリュームごとに複数の I/O キューを使用して複数のスレッドを並列実行するようになりました。 これにより、以前は小さいボリュームにデータを分割しなければ得られなかったパフォーマンスを、分割することなく達成できるようになりました。
参考情報
データ重複除去の新機能します。 | Microsoft Docs
Windows Server 2012 R2では、動作やパフォーマンスでないから利用していなかったというケースで、Windows Server 2016以降では機能を利用してみてもいいかもしれませんね。特にディスク容量が大きい場合は、容量の活用ができそうです。