Informazioni sui crawler di contenuto

È possibile creare un crawler di contenuto per importare contenuto nel portale dai repository di contenuto esterni. Sarà necessario eseguire un job associato al crawler di contenuto per eseguire ricerche periodiche di contenuto nel repository esterno e importare il contenuto rilevato. Per informazioni sui job, vedere Informazioni sui job.

Nota: i crawler di contenuto dipendono dalle origini contenuto. Per informazioni sulle origini dati, vedere Informazioni sulle origini contenuto.

In questo argomento vengono trattati:

Per ulteriori informazioni sulla creazione e modifica degli oggetti amministrativi (crawler di contenuto inclusi), fare clic qui.

Crawler di contenuto Web

Un crawler di contenuto Web consente di importare contenuto dal Web nel portale.

Per ulteriori informazioni sull'editor Crawler di contenuto Web, fare clic su una delle seguenti pagine dell'editor:

Crawler di contenuto remoto

Un crawler di contenuto remoto consente agli utenti di importare contenuto da un repository di contenuto esterno nel portale.

Alcuni provider di crawling vengono installati con il portale e risultano subito disponibili ai relativi utenti. Altri provider devono essere installati e impostati manualmente. Ad esempio, Oracle offre i provider di crawling riportati di seguito.

Nota: per ulteriori informazioni su come ottenere provider di crawling, consultare Oracle Technology Network all'indirizzo http://www.oracle.com/technology/index.html. Per ulteriori informazioni sull'installazione dei provider di crawling, vedere Installation Guide for WebCenter Interaction, disponibile in Oracle Technology Network all'indirizzo http://www.oracle.com/technology/documentation/bea.html o la documentazione fornita assieme al provider di crawling. In alternativa, contattare l'amministratore del portale.

Per creare un nuovo crawler di contenuto remoto, effettuare le operazioni riportate di seguito.

  1. Installare il provider di crawling sul computer del portale o su un altro computer.
  2. Creare un server remoto.
  3. Creare un servizio Web contenuto (vedere più avanti).
  4. Creare un'origine contenuto remota.
  5. Creare un crawler di contenuto remoto.

Per ulteriori informazioni sull'editor Crawler di contenuto remoto, fare clic su una delle seguenti pagine dell'editor:

I seguenti provider di crawling installati includono almeno una pagina aggiuntiva per l'editor Crawler di contenuto remoto.

Servizi Web contenuto

I servizi Web contenuto consentono di specificare le impostazioni generali per il repository di contenuto remoto, lasciando invariate le impostazioni di destinazione e sicurezza nell'origine di autenticazione remota associata e nel crawler di contenuto remoto. Ciò consente di eseguire il crawling di più posizioni dello stesso repository di contenuto senza dover ripetutamente specificare tutte le impostazioni.

Nota: è possibile creare servizi Web contenuto su cui basare le origini contenuto remoto. Per informazioni sulle origini dati, vedere Informazioni sulle origini contenuto.

Per ulteriori informazioni sull'editor dei servizi Web contenuto, fare clic su una delle seguenti pagine dell'editor:

Importazione della sicurezza dei documenti

Agli utenti può essere automaticamente concesso l'accesso al contenuto importato da alcuni crawler di contenuto remoti. La mappa di sincronizzazione ACL globale indica a tali crawler di contenuto come importare la sicurezza dei documenti di origine.

Se si desidera visualizzare un esempio di importazione della sicurezza, fare clic su Esempio di importazione della sicurezza.

Risoluzione di problemi relativi ai risultati di un crawling

Se il crawler di contenuto non importa il contenuto previsto, è consigliabile controllare quanto segue.