คู่มืออ้างอิงฉบับสมบูรณ์

OpenClaw CLI: สุดยอดคู่มือโกงฉบับภาษาไทย

ปลดล็อกพลังของการขูดเว็บและการทำงานอัตโนมัติด้วยคำสั่งที่ทรงพลังและเคล็ดลับจากผู้เชี่ยวชาญ

1. การเริ่มต้นและติดตั้ง

openclaw init
Copied!

สร้างโครงสร้างโปรเจกต์ OpenClaw ใหม่ในไดเรกทอรีที่ระบุ

ใช้คำสั่งนี้เพื่อเริ่มต้นโปรเจกต์ใหม่ทุกครั้งเพื่อความสะอาดและเป็นระเบียบ

openclaw install
Copied!

ติดตั้ง dependencies ที่จำเป็นสำหรับโปรเจกต์ OpenClaw ปัจจุบัน

รันคำสั่งนี้หลังจากโคลนโปรเจกต์หรือเมื่อมีการเปลี่ยนแปลงในไฟล์การตั้งค่า

openclaw config --show
Copied!

แสดงการตั้งค่าปัจจุบันของ OpenClaw

ตรวจสอบการตั้งค่าเพื่อยืนยันการกำหนดค่าพร็อกซีหรือ user-agent

openclaw login --api-key
Copied!

กำหนดค่า API Key สำหรับการเข้าถึงบริการเสริมของ OpenClaw

เก็บ API Key ของคุณเป็นความลับและหลีกเลี่ยงการ hardcode ในสคริปต์

2. การขูดเว็บขั้นพื้นฐาน

openclaw scrape --selector "css_selector"
Copied!

ขูดข้อมูลจาก URL ที่กำหนดโดยใช้ CSS Selector

ใช้เครื่องมือช่วยหา CSS Selector เพื่อความแม่นยำ เช่น https://selectors.dev/

openclaw scrape --xpath "//xpath_expression"
Copied!

ขูดข้อมูลจาก URL ที่กำหนดโดยใช้ XPath Expression

XPath มีความยืดหยุ่นสูงสำหรับการเลือกองค์ประกอบที่ซับซ้อนและเฉพาะเจาะจง

openclaw scrape --output output.json
Copied!

บันทึกผลลัพธ์การขูดเว็บลงในไฟล์ JSON

ระบุรูปแบบไฟล์อื่นได้ เช่น .csv หรือ .txt ตามความต้องการในการนำไปใช้งาน

openclaw browse --interactive
Copied!

เปิดเบราว์เซอร์โหมดอินเทอร์แอคทีฟเพื่อสำรวจเว็บไซต์และสร้าง Selector

โหมดนี้มีประโยชน์มากสำหรับการดีบักและสร้าง Selector ที่ถูกต้องก่อนนำไปใช้จริง

3. การจัดการข้อมูลและการส่งออก

openclaw export --format csv --input data.json --output data.csv
Copied!

แปลงข้อมูลจากไฟล์ JSON เป็น CSV

รองรับการแปลงหลายรูปแบบ เช่น Excel, SQL, หรือ Parquet เพื่อความหลากหลายในการใช้งาน

openclaw filter --input data.json --query "price > 100"
Copied!

กรองข้อมูลในไฟล์ JSON ตามเงื่อนไขที่กำหนด

ใช้ไวยากรณ์คล้าย SQL เพื่อการกรองข้อมูลที่ซับซ้อนและมีประสิทธิภาพ

openclaw transform --input data.json --script transform.js
Copied!

แปลงข้อมูลโดยใช้สคริปต์ JavaScript หรือ Python

เหมาะสำหรับการปรับโครงสร้างข้อมูล การคำนวณเพิ่มเติม หรือการล้างข้อมูล

openclaw merge --input "file1.json file2.json" --output merged.json
Copied!

รวมไฟล์ข้อมูลหลายไฟล์เข้าด้วยกัน

ใช้ wildcard เช่น *.json เพื่อรวมไฟล์ทั้งหมดในไดเรกทอรีที่ระบุ

4. การทำงานขั้นสูงและพร็อกซี

openclaw scrape --proxy http://user:pass@ip:port
Copied!

ขูดเว็บโดยใช้พร็อกซีที่ระบุ

ใช้พร็อกซีเพื่อหลีกเลี่ยงการบล็อก IP และเข้าถึงเนื้อหาที่จำกัดทางภูมิศาสตร์

openclaw scrape --user-agent "Mozilla/5.0..."
Copied!

กำหนด User-Agent ที่จะใช้ในการร้องขอ

การสลับ User-Agent ช่วยให้ดูเหมือนการเข้าชมจากเบราว์เซอร์ที่แตกต่างกัน

openclaw crawl --depth 2 --pattern "*.html"
Copied!

คลานเว็บไซต์จาก URL เริ่มต้นไปยังความลึกที่กำหนด

ใช้ --pattern เพื่อจำกัดการคลานเฉพาะหน้าที่มี URL ตรงตามรูปแบบที่ต้องการ

openclaw headless --url --screenshot output.png
Copied!

รันเบราว์เซอร์แบบ Headless เพื่อจับภาพหน้าจอหรือโต้ตอบกับ JavaScript

มีประโยชน์สำหรับการขูดเว็บจาก SPA (Single Page Applications) ที่เรนเดอร์ด้วย JS

5. การทำงานอัตโนมัติและกำหนดเวลา

openclaw schedule --name "DailyScrape" --cron "0 0 * * *" --command "openclaw scrape..."
Copied!

กำหนดเวลาการทำงานของคำสั่ง OpenClaw โดยใช้ไวยากรณ์ Cron

ตรวจสอบให้แน่ใจว่า OpenClaw daemon ทำงานอยู่เพื่อรันงานตามกำหนดเวลา

openclaw workflow create --template basic
Copied!

สร้างเวิร์กโฟลว์อัตโนมัติจากเทมเพลต

เวิร์กโฟลว์ช่วยจัดลำดับขั้นตอนการทำงานที่ซับซ้อนให้เป็นระเบียบและอัตโนมัติ

openclaw workflow run
Copied!

รันเวิร์กโฟลว์ที่สร้างไว้

สามารถรันเวิร์กโฟลว์แบบแมนนวลเพื่อทดสอบก่อนกำหนดเวลาหรือใช้งานจริง

openclaw monitor --target --selector "price_selector" --alert [email protected]
Copied!

ตรวจสอบการเปลี่ยนแปลงของข้อมูลบนเว็บไซต์และส่งการแจ้งเตือน

ใช้สำหรับการติดตามราคาสินค้า การเปลี่ยนแปลงเนื้อหา หรือสถานะสำคัญอื่นๆ

6. การแก้ไขปัญหาและดีบัก

openclaw logs --follow
Copied!

แสดงบันทึกกิจกรรมของ OpenClaw แบบเรียลไทม์

มีประโยชน์อย่างยิ่งในการติดตามปัญหาที่เกิดขึ้นระหว่างการขูดเว็บหรือรันเวิร์กโฟลว์

openclaw debug --verbose
Copied!

แสดงข้อมูลการดีบักโดยละเอียดสำหรับการร้องขอ URL ที่ระบุ

ใช้ --verbose เพื่อดูรายละเอียด HTTP header และสถานะการตอบสนองทั้งหมด

openclaw validate --selector "css_selector" --url
Copied!

ตรวจสอบว่า CSS Selector หรือ XPath ทำงานถูกต้องบน URL ที่กำหนด

ประหยัดเวลาในการแก้ปัญหา Selector ที่ไม่ถูกต้องก่อนนำไปใช้ในสคริปต์จริง

openclaw self-check
Copied!

ตรวจสอบการตั้งค่าและ dependencies ของ OpenClaw

รันคำสั่งนี้เมื่อพบปัญหาการติดตั้งหรือการทำงานทั่วไปเพื่อระบุสาเหตุเบื้องต้น

คำถามที่พบบ่อย (FAQs) เกี่ยวกับ OpenClaw CLI

OpenClaw CLI คืออะไร?

OpenClaw CLI เป็นเครื่องมือบรรทัดคำสั่ง (Command Line Interface) ที่ทรงพลังสำหรับการขูดเว็บ (web scraping), การแยกข้อมูล, และการทำงานอัตโนมัติ ช่วยให้ผู้ใช้สามารถดึงข้อมูลจากเว็บไซต์ได้อย่างมีประสิทธิภาพ

OpenClaw แตกต่างจากเครื่องมือขูดเว็บอื่นอย่างไร?

OpenClaw ได้รับการออกแบบมาให้ใช้งานง่าย มีความยืดหยุ่นสูง รองรับทั้ง CSS Selector และ XPath, มีฟังก์ชันการจัดการข้อมูลในตัว, และสามารถทำงานแบบ Headless Browser ได้ เหมาะสำหรับทั้งผู้เริ่มต้นและผู้เชี่ยวชาญ

ฉันจะเริ่มต้นใช้งาน OpenClaw ได้อย่างไร?

คุณสามารถเริ่มต้นได้ด้วยการติดตั้ง OpenClaw ผ่าน npm หรือดาวน์โหลดไบนารี จากนั้นใช้คำสั่ง openclaw init เพื่อสร้างโปรเจกต์ใหม่และเริ่มขูดเว็บได้ทันที

OpenClaw รองรับการทำงานแบบ Headless Browser หรือไม่?

ใช่ OpenClaw มีความสามารถในการรันเบราว์เซอร์แบบ Headless ซึ่งจำเป็นสำหรับการขูดเว็บจากเว็บไซต์ที่ใช้ JavaScript ในการเรนเดอร์เนื้อหา

มีแหล่งข้อมูลเพิ่มเติมสำหรับการเรียนรู้ OpenClaw หรือไม่?

คุณสามารถดูเอกสารประกอบอย่างเป็นทางการของ OpenClaw, ชุมชนผู้ใช้งาน, และบทเรียนออนไลน์ต่างๆ เพื่อเรียนรู้เพิ่มเติมเกี่ยวกับคุณสมบัติขั้นสูงและการใช้งาน