Référence Ultime

Cheat Sheet OpenClaw CLI

Maîtrisez l'extraction de données et le web scraping intelligent avec OpenClaw.

1. Installation et Configuration Initiale

openclaw install
Copied!

Installe la dernière version d'OpenClaw sur votre système.

Assurez-vous d'avoir les prérequis système pour une installation fluide.

openclaw config init
Copied!

Initialise le fichier de configuration global d'OpenClaw pour personnaliser les paramètres.

Exécutez cette commande après l'installation pour définir les chemins et les préférences par défaut.

openclaw login --api-key
Copied!

Authentifie votre session OpenClaw avec votre clé API pour accéder aux fonctionnalités avancées.

Votre clé API est essentielle pour les opérations basées sur le cloud et l'IA. Gardez-la sécurisée.

openclaw update
Copied!

Met à jour votre installation OpenClaw vers la dernière version disponible.

Mettez à jour régulièrement pour bénéficier des nouvelles fonctionnalités et corrections de bugs.

2. Commandes de Base pour l'Extraction

openclaw scrape --selector "css|xpath"
Copied!

Extrait des données d'une URL spécifique en utilisant un sélecteur CSS ou XPath.

Utilisez des sélecteurs précis pour cibler les éléments exacts que vous souhaitez extraire.

openclaw extract --ai "résumer la page"
Copied!

Utilise l'intelligence artificielle pour extraire des informations ou résumer le contenu d'une page web.

Idéal pour obtenir des informations structurées ou des résumés sans définir de sélecteurs manuellement.

openclaw list-selectors
Copied!

Analyse une page web et suggère des sélecteurs CSS ou XPath potentiels pour l'extraction.

Utile pour démarrer rapidement et identifier les sélecteurs pertinents sans inspection manuelle.

openclaw fetch --raw
Copied!

Récupère le contenu HTML brut d'une URL donnée.

Pour le débogage ou l'analyse manuelle du code source d'une page.

3. Gestion des Sélecteurs et Données

openclaw define-template --url --selectors
Copied!

Crée un modèle d'extraction réutilisable avec une URL et un ensemble de sélecteurs définis.

Les modèles améliorent l'efficacité et la reproductibilité de vos tâches de scraping.

openclaw run-template
Copied!

Exécute une tâche d'extraction en utilisant un modèle prédéfini.

Ceci permet d'automatiser des extractions complexes avec une seule commande.

openclaw show-data --format json
Copied!

Affiche les données extraites d'un modèle spécifique dans le format désiré (par exemple, JSON).

Vérifiez la structure et le contenu de vos données avant l'exportation finale.

openclaw validate-selectors --selectors
Copied!

Teste la validité et la performance d'un ensemble de sélecteurs sur une URL spécifique.

Détectez les sélecteurs cassés ou inefficaces avant de lancer une extraction à grande échelle.

openclaw transform-data --script "python_script.py"
Copied!

Applique un script de transformation (par exemple, Python) aux données extraites par un modèle.

Idéal pour le nettoyage, la normalisation ou l'enrichissement des données après l'extraction.

4. Automatisation et Planification

openclaw schedule --interval "daily" --output "data/daily_report.csv"
Copied!

Planifie l'exécution automatique d'un modèle d'extraction à intervalles réguliers.

Utilisez des intervalles comme 'hourly', 'daily', 'weekly' ou des expressions cron pour une flexibilité maximale.

openclaw monitor --changes "div.price" --webhook
Copied!

Surveille une URL pour des changements sur des éléments spécifiques et déclenche une action (par exemple, un webhook).

Parfait pour suivre les variations de prix, les mises à jour de stock ou les nouveaux articles.

openclaw run-workflow
Copied!

Exécute un flux de travail complexe impliquant plusieurs étapes d'extraction et de traitement.

Les workflows permettent d'orchestrer des tâches de scraping multi-pages ou multi-sites.

openclaw list-schedules
Copied!

Affiche toutes les tâches d'extraction planifiées actuellement actives.

Vérifiez l'état et les prochaines exécutions de vos automatisations.

5. Interaction et Navigation Avancées

openclaw browse --interact "click #nextButton; wait 2s; scroll 500"
Copied!

Navigue et interagit avec des pages web dynamiques (clics, défilement, saisie de texte).

Utilisez des chaînes d'actions séparées par des points-virgules pour des interactions complexes.

openclaw paginate --next-selector "a.next-page" --max-pages 5
Copied!

Automatise la navigation à travers les pages d'un site web en suivant un sélecteur de pagination.

Très efficace pour scraper des listes de produits ou des articles répartis sur plusieurs pages.

openclaw fill-form --fields '{"#username": "user", "#password": "pass"}'
Copied!

Rempli et soumet des formulaires web avec les données spécifiées.

Peut être utilisé pour se connecter à des sites ou soumettre des requêtes de recherche.

openclaw screenshot --full-page --output screenshot.png
Copied!

Capture une capture d'écran d'une page web, y compris le contenu défilant.

Utile pour la documentation, le débogage visuel ou la surveillance des changements d'interface.

6. Débogage et Optimisation

openclaw debug --verbose --headless false
Copied!

Exécute une session de scraping en mode débogage, affichant une sortie détaillée et potentiellement une fenêtre de navigateur.

Le mode non-headless (headless false) est crucial pour visualiser le comportement du navigateur.

openclaw analyze-performance
Copied!

Fournit une analyse des performances d'une page web, y compris les temps de chargement et les ressources.

Identifiez les goulots d'étranglement qui pourraient ralentir vos opérations de scraping.

openclaw logs --level error
Copied!

Affiche les journaux d'activité d'OpenClaw, filtrés par niveau de gravité (info, warn, error).

Examinez les journaux pour diagnostiquer les problèmes ou comprendre le déroulement des tâches.

openclaw test-proxy
Copied!

Teste la connectivité et la latence d'un serveur proxy.

Assurez-vous que vos proxies fonctionnent correctement avant de les utiliser pour des extractions à grande échelle.

7. Exportation et Intégration

openclaw export --format csv --output data.csv
Copied!

Exporte les données extraites par un modèle vers un fichier dans un format spécifié (CSV, JSON, XLSX).

Choisissez le format qui convient le mieux à votre utilisation ultérieure des données.

openclaw webhook --url
Copied!

Configure un webhook pour envoyer les données extraites à une URL externe après chaque exécution.

Idéal pour l'intégration en temps réel avec d'autres systèmes ou applications.

openclaw integrate --platform "google_sheets" --template
Copied!

Connecte OpenClaw à des plateformes tierces pour l'intégration directe des données.

Simplifiez le flux de travail en envoyant directement les données à vos outils d'analyse ou de stockage préférés.

openclaw api-docs
Copied!

Génère et affiche la documentation de l'API OpenClaw pour l'intégration programmatique.

Pour les développeurs souhaitant intégrer OpenClaw dans des applications personnalisées.

Questions Fréquemment Posées sur OpenClaw

Qu'est-ce qu'OpenClaw?

OpenClaw est un outil CLI avancé basé sur l'intelligence artificielle, conçu pour le web scraping, l'extraction et l'automatisation de données à partir de n'importe quelle source web.

Comment installer OpenClaw?

Vous pouvez installer OpenClaw facilement en utilisant la commande `openclaw install`. Pour des instructions spécifiques à votre système d'exploitation, consultez la documentation officielle.

OpenClaw peut-il gérer les sites web dynamiques ou basés sur JavaScript?

Oui, OpenClaw intègre un moteur de rendu de navigateur complet, lui permettant d'interagir avec les pages JavaScript, de cliquer sur des éléments et de simuler le comportement utilisateur.

Puis-je planifier des tâches de scraping récurrentes avec OpenClaw?

Absolument. La commande `openclaw schedule` vous permet de planifier l'exécution de vos modèles d'extraction à des intervalles définis, comme quotidiennement ou hebdomadairement.

Quels formats d'exportation de données sont supportés par OpenClaw?

OpenClaw supporte l'exportation de données dans divers formats populaires tels que CSV, JSON, et XLSX. Il offre également des options d'intégration via webhooks ou des plateformes tierces.