1. การเริ่มต้นและติดตั้ง
openclaw init
สร้างโครงสร้างโปรเจกต์ OpenClaw ใหม่ในไดเรกทอรีที่ระบุ
ใช้คำสั่งนี้เพื่อเริ่มต้นโปรเจกต์ใหม่ทุกครั้งเพื่อความสะอาดและเป็นระเบียบ
openclaw install
ติดตั้ง dependencies ที่จำเป็นสำหรับโปรเจกต์ OpenClaw ปัจจุบัน
รันคำสั่งนี้หลังจากโคลนโปรเจกต์หรือเมื่อมีการเปลี่ยนแปลงในไฟล์การตั้งค่า
openclaw config --show
แสดงการตั้งค่าปัจจุบันของ OpenClaw
ตรวจสอบการตั้งค่าเพื่อยืนยันการกำหนดค่าพร็อกซีหรือ user-agent
openclaw login --api-key
กำหนดค่า API Key สำหรับการเข้าถึงบริการเสริมของ OpenClaw
เก็บ API Key ของคุณเป็นความลับและหลีกเลี่ยงการ hardcode ในสคริปต์
2. การขูดเว็บขั้นพื้นฐาน
openclaw scrape --selector "css_selector"
ขูดข้อมูลจาก URL ที่กำหนดโดยใช้ CSS Selector
ใช้เครื่องมือช่วยหา CSS Selector เพื่อความแม่นยำ เช่น https://selectors.dev/
openclaw scrape --xpath "//xpath_expression"
ขูดข้อมูลจาก URL ที่กำหนดโดยใช้ XPath Expression
XPath มีความยืดหยุ่นสูงสำหรับการเลือกองค์ประกอบที่ซับซ้อนและเฉพาะเจาะจง
openclaw scrape --output output.json
บันทึกผลลัพธ์การขูดเว็บลงในไฟล์ JSON
ระบุรูปแบบไฟล์อื่นได้ เช่น .csv หรือ .txt ตามความต้องการในการนำไปใช้งาน
openclaw browse --interactive
เปิดเบราว์เซอร์โหมดอินเทอร์แอคทีฟเพื่อสำรวจเว็บไซต์และสร้าง Selector
โหมดนี้มีประโยชน์มากสำหรับการดีบักและสร้าง Selector ที่ถูกต้องก่อนนำไปใช้จริง
3. การจัดการข้อมูลและการส่งออก
openclaw export --format csv --input data.json --output data.csv
แปลงข้อมูลจากไฟล์ JSON เป็น CSV
รองรับการแปลงหลายรูปแบบ เช่น Excel, SQL, หรือ Parquet เพื่อความหลากหลายในการใช้งาน
openclaw filter --input data.json --query "price > 100"
กรองข้อมูลในไฟล์ JSON ตามเงื่อนไขที่กำหนด
ใช้ไวยากรณ์คล้าย SQL เพื่อการกรองข้อมูลที่ซับซ้อนและมีประสิทธิภาพ
openclaw transform --input data.json --script transform.js
แปลงข้อมูลโดยใช้สคริปต์ JavaScript หรือ Python
เหมาะสำหรับการปรับโครงสร้างข้อมูล การคำนวณเพิ่มเติม หรือการล้างข้อมูล
openclaw merge --input "file1.json file2.json" --output merged.json
รวมไฟล์ข้อมูลหลายไฟล์เข้าด้วยกัน
ใช้ wildcard เช่น *.json เพื่อรวมไฟล์ทั้งหมดในไดเรกทอรีที่ระบุ
4. การทำงานขั้นสูงและพร็อกซี
openclaw scrape --proxy http://user:pass@ip:port
ขูดเว็บโดยใช้พร็อกซีที่ระบุ
ใช้พร็อกซีเพื่อหลีกเลี่ยงการบล็อก IP และเข้าถึงเนื้อหาที่จำกัดทางภูมิศาสตร์
openclaw scrape --user-agent "Mozilla/5.0..."
กำหนด User-Agent ที่จะใช้ในการร้องขอ
การสลับ User-Agent ช่วยให้ดูเหมือนการเข้าชมจากเบราว์เซอร์ที่แตกต่างกัน
openclaw crawl --depth 2 --pattern "*.html"
คลานเว็บไซต์จาก URL เริ่มต้นไปยังความลึกที่กำหนด
ใช้ --pattern เพื่อจำกัดการคลานเฉพาะหน้าที่มี URL ตรงตามรูปแบบที่ต้องการ
openclaw headless --url --screenshot output.png
รันเบราว์เซอร์แบบ Headless เพื่อจับภาพหน้าจอหรือโต้ตอบกับ JavaScript
มีประโยชน์สำหรับการขูดเว็บจาก SPA (Single Page Applications) ที่เรนเดอร์ด้วย JS
5. การทำงานอัตโนมัติและกำหนดเวลา
openclaw schedule --name "DailyScrape" --cron "0 0 * * *" --command "openclaw scrape..."
กำหนดเวลาการทำงานของคำสั่ง OpenClaw โดยใช้ไวยากรณ์ Cron
ตรวจสอบให้แน่ใจว่า OpenClaw daemon ทำงานอยู่เพื่อรันงานตามกำหนดเวลา
openclaw workflow create --template basic
สร้างเวิร์กโฟลว์อัตโนมัติจากเทมเพลต
เวิร์กโฟลว์ช่วยจัดลำดับขั้นตอนการทำงานที่ซับซ้อนให้เป็นระเบียบและอัตโนมัติ
openclaw workflow run
รันเวิร์กโฟลว์ที่สร้างไว้
สามารถรันเวิร์กโฟลว์แบบแมนนวลเพื่อทดสอบก่อนกำหนดเวลาหรือใช้งานจริง
openclaw monitor --target --selector "price_selector" --alert [email protected]
ตรวจสอบการเปลี่ยนแปลงของข้อมูลบนเว็บไซต์และส่งการแจ้งเตือน
ใช้สำหรับการติดตามราคาสินค้า การเปลี่ยนแปลงเนื้อหา หรือสถานะสำคัญอื่นๆ
6. การแก้ไขปัญหาและดีบัก
openclaw logs --follow
แสดงบันทึกกิจกรรมของ OpenClaw แบบเรียลไทม์
มีประโยชน์อย่างยิ่งในการติดตามปัญหาที่เกิดขึ้นระหว่างการขูดเว็บหรือรันเวิร์กโฟลว์
openclaw debug --verbose
แสดงข้อมูลการดีบักโดยละเอียดสำหรับการร้องขอ URL ที่ระบุ
ใช้ --verbose เพื่อดูรายละเอียด HTTP header และสถานะการตอบสนองทั้งหมด
openclaw validate --selector "css_selector" --url
ตรวจสอบว่า CSS Selector หรือ XPath ทำงานถูกต้องบน URL ที่กำหนด
ประหยัดเวลาในการแก้ปัญหา Selector ที่ไม่ถูกต้องก่อนนำไปใช้ในสคริปต์จริง
openclaw self-check
ตรวจสอบการตั้งค่าและ dependencies ของ OpenClaw
รันคำสั่งนี้เมื่อพบปัญหาการติดตั้งหรือการทำงานทั่วไปเพื่อระบุสาเหตุเบื้องต้น