En general en el mundo de la informática se tiende a no duplicar o hacer dos veces una misma tarea. Los buscadores también intentan no tener dos veces un mismo texto o contenido, ya que no aporta nada a la calidad de resultados.
Esto significa que sitios que generan sus contenidos gracias a contenidos de otros sitios no tienen aportación a los motores y pueden llegar a ser considerados sitios duplicados.
Un detalle a tener en cuenta sobretodo son los feeds (RSS/Atom) que permiten ofrecer contenido a terceros de una forma sencilla y que estos otros sitios la acaben incorporando entre sus contenidos. En estos casos deberás intentar filtrar que estos sitios no roben los contenidos para uso propio.
Fuente: Javier Casares | Más información: Programming 4 Us (en inglés)