Der Begriff „Duplicate Content“ grenzt sich ab vom sogenannten „Unique Content“ und definiert Inhalte im Web, die mehrfach im selben Wortlaut veröffentlicht worden sind.
Suchmaschinen neigen dazu mehrfach veröffentlichte Inhalte in den Suchergebnissen auszublenden und auch im Ranking negativ zu beurteilen. Kopierte Inhalte können damit nicht nur negative Wirkungen auf die Neuveröffentlichung, sondern auch auf die ursprüngliche Publikation ausüben.
In diesem Zusammenhang werden auch Webproxy- Services und RSS-Dienste, die dazu geeignet sind, Inhalte im selben Wortlaut weiter zu verbreiten, kritisch diskutiert. Es wird angenommen, dass bestimmte Bereiche der Publikation im Web von einer Negativbeurteilung des Duplicate Contents ausgenommen sind.
So gibt es Presseportale, die praktisch ausschließlich aus Duplicate Content bestehen, sich aber gleichzeitig durch eine hervorragende Suchmaschinensichtbarkeit auszeichnen. Verschiedene Anbieter stellen Tools zur Verfügung, um Duplicate Content zu identifizieren. Durch automatisiertes Umschreiben von Texten ist es zwar möglich, die Identifikation solcher Tools zu umgehen, tatsächlicher Unique Content wird auf diese Weise aber nicht generiert, da die umgeschriebenen Texte kein neues von menschlichen Geist geformtes Gedankengut enthalten und auch in den Suchmaschinenergebnissen miteinander konkurrieren.
So ist angeraten, seid den Google Panda Updates, auch semantischen Inhalt nicht zu duplizieren, wenn sich dann die duplizierten Webseiten nur geringfügig unterscheiden, womöglich indem das Keyword unterschiedlich ausgesteuert wird. Diese Praxis wurde früher oft in den Doorway Pages und bis heute im Jahre 2013 von einigen SEOs auch in Landing Pages angewendet.