1. Instalación y Configuración Inicial
openclaw install
Instala la última versión de OpenClaw en tu sistema. Asegúrate de tener los prerrequisitos necesarios.
Usa 'sudo openclaw install' en sistemas Linux si encuentras problemas de permisos.
openclaw config init
Inicializa el archivo de configuración global de OpenClaw, estableciendo credenciales y ajustes básicos.
Revisa el archivo de configuración generado para personalizar proxies o claves API.
openclaw auth login
Autentica tu sesión de OpenClaw con tus credenciales de usuario o token de API.
Mantén tu token de API seguro y evita compartirlo en entornos no confiables.
openclaw update
Actualiza OpenClaw a la versión más reciente disponible, obteniendo nuevas características y correcciones de errores.
Ejecuta esto regularmente para asegurarte de tener las últimas capacidades de IA y seguridad.
2. Extracción Básica de Datos
openclaw scrape
Realiza un scraping rápido de una URL, extrayendo contenido principal de forma inteligente.
Ideal para obtener una vista preliminar del contenido de una página web.
openclaw extract --selector "css_selector"
Extrae datos específicos utilizando un selector CSS. Puedes especificar múltiples selectores.
Usa herramientas de desarrollador del navegador para inspeccionar elementos y obtener selectores CSS precisos.
openclaw get-text --xpath "//xpath"
Obtiene el texto de un elemento específico usando una expresión XPath avanzada.
XPath es potente para estructuras complejas o cuando los selectores CSS son insuficientes.
openclaw screenshot --output image.png
Captura una captura de pantalla completa de la página web renderizada y la guarda en un archivo.
Útil para depurar o documentar el estado visual de una página en un momento dado.
3. Navegación Avanzada y Paginación
openclaw crawl --depth 2
Inicia un rastreo desde una URL, siguiendo enlaces hasta una profundidad especificada para descubrir más páginas.
Ajusta la profundidad para controlar el alcance del rastreo y evitar sobrecargar el servidor.
openclaw paginate --pages 5 --selector "next_button"
Navega a través de múltiples páginas, ya sea por patrón de URL o haciendo clic en un botón de 'siguiente'.
Combina con `--delay` para simular la navegación humana y evitar bloqueos.
openclaw follow-links --pattern "product"
Extrae y sigue enlaces de una página que coincidan con un patrón específico en su URL o texto.
Usa patrones de expresiones regulares para una coincidencia de enlaces más flexible.
openclaw interact --click "button_selector" --type "input_selector" "texto"
Simula interacciones del usuario como clics en botones o entrada de texto en formularios.
Esencial para sitios web con contenido dinámico o detrás de formularios de inicio de sesión.
4. Uso de IA para Detección de Datos
openclaw smart-extract --ai-model "table_detector"
Utiliza modelos de IA preentrenados para detectar y extraer tipos de datos complejos como tablas o listas de productos.
Experimenta con diferentes modelos de IA según el tipo de datos que necesites extraer.
openclaw classify --fields "product_name,price"
Instruye a la IA para identificar y clasificar campos de datos específicos sin selectores manuales.
Proporciona nombres de campos descriptivos para mejorar la precisión de la IA.
openclaw summarize --selector "article_content"
Genera un resumen conciso del contenido dentro de un selector dado usando capacidades de procesamiento de lenguaje natural (NLP) de IA.
Útil para extraer la esencia de artículos largos o descripciones de productos.
openclaw detect-elements --type "links"
La IA detecta elementos comunes en una página, como enlaces, imágenes o campos de formulario, y los lista.
Una excelente manera de explorar la estructura de una página sin inspección manual.
5. Exportación y Formatos de Salida
openclaw export --format json
Exporta los datos recolectados de una sesión específica en varios formatos como JSON, CSV o XML.
Usa el ID de sesión para recuperar datos de ejecuciones anteriores o procesos en segundo plano.
openclaw save-to-csv --file output.csv
Redirige la salida de cualquier comando de extracción a un archivo CSV para un fácil análisis.
Asegúrate de que los datos estén estructurados correctamente para una exportación CSV limpia.
openclaw stream-data --webhook "https://myapi.com/data"
Envía los datos extraídos en tiempo real a un endpoint de webhook especificado para integración con otros sistemas.
Configura tu webhook para procesar las cargas útiles JSON entrantes de OpenClaw.
openclaw generate-report --template "summary"
Genera un informe estructurado a partir de los datos de la sesión, utilizando plantillas predefinidas o personalizadas.
Las plantillas pueden incluir métricas de rendimiento del scraping o análisis de datos.
6. Automatización y Programación
openclaw schedule run --every "daily"
Programa una tarea de scraping o extracción para que se ejecute automáticamente en intervalos definidos (diario, semanal, etc.).
Define tus tareas en un archivo de configuración para una programación más compleja.
openclaw monitor --changes-only --notify "[email protected]"
Supervisa una URL en busca de cambios en el contenido y envía notificaciones solo cuando se detectan diferencias.
Útil para el seguimiento de precios, actualizaciones de noticias o disponibilidad de productos.
openclaw pipeline create --name "MyWorkflow"
Crea un pipeline de procesamiento de datos, encadenando múltiples comandos de OpenClaw y transformaciones.
Los pipelines permiten flujos de trabajo de extracción y procesamiento de datos complejos y automatizados.
openclaw trigger event
Dispara un evento personalizado que puede iniciar una tarea programada o un pipeline.
Integra con sistemas externos para activar tareas de OpenClaw basadas en eventos.
7. Manejo de Errores y Depuración
openclaw log view --level error
Muestra los registros de actividad de OpenClaw, filtrando por nivel de severidad (info, warn, error, debug).
Usa `--follow` para ver los registros en tiempo real durante la ejecución de un comando.
openclaw debug
Inicia una sesión de depuración interactiva para inspeccionar el estado de una ejecución fallida o en curso.
Permite examinar el DOM, las variables y los errores paso a paso.
openclaw retry --attempts 3
Reintenta la ejecución de un comando un número específico de veces en caso de fallos transitorios.
Configura un `--delay` entre reintentos para evitar sobrecargar el servidor.
openclaw test-proxy
Verifica la funcionalidad y el rendimiento de un proxy específico antes de usarlo en tareas de scraping.
Asegúrate de que tus proxies sean fiables y rápidos para un scraping eficiente.