Ultimate Reference

OpenClaw CLI: Канчатковая Шпаргалка

Ваш надзейны даведнік па магутным інструменце для вэб-скрапінгу і аналізу дадзеных.

Асноўныя Каманды

openclaw init
Copied!

Ініцыялізуе новы праект OpenClaw у бягучым каталогу, ствараючы неабходную структуру файлаў.

Выкарыстоўвайце асэнсаваныя імёны праектаў для лепшай арганізацыі.

openclaw fetch
Copied!

Атрымлівае змесціва вэб-старонкі па зададзеным URL і захоўвае яго лакальна для далейшай апрацоўкі.

Для складаных сайтаў разгледзьце выкарыстанне опцый для рэндэрынгу JavaScript.

openclaw auth login --user --pass
Copied!

Выконвае аўтэнтыфікацыю на вэб-сайце, захоўваючы сесійныя файлы cookie для наступных запытаў.

Заўсёды выкарыстоўвайце бяспечныя метады для перадачы ўліковых дадзеных, напрыклад, пераменныя асяроддзя.

openclaw status
Copied!

Паказвае бягучы стан праекта, уключаючы актыўныя задачы, апошнія аперацыі і канфігурацыю.

Рэгулярна правярайце статус для маніторынгу прагрэсу і выяўлення памылак.

openclaw help
Copied!

Адлюстроўвае падрабязную даведку і варыянты выкарыстання для канкрэтнай каманды OpenClaw.

Калі вы не ўпэўнены ў сінтаксісе, пачніце з 'openclaw help' для агульнага агляду.

Выманне Дадзеных

openclaw extract selector --url
Copied!

Выманне дадзеных з вэб-старонкі з дапамогай CSS-селектара, які паказвае на патрэбныя элементы.

Выкарыстоўвайце інструменты распрацоўніка браўзера для дакладнага вызначэння CSS-селектараў.

openclaw extract xpath --file
Copied!

Выманне дадзеных з лакальнага HTML-файла з дапамогай XPath-запыту.

XPath больш магутны для навігацыі па складаных структурах DOM, чым CSS-селектары.

openclaw extract table --url --index
Copied!

Аўтаматычна выяўляе і выманне таблічных дадзеных з указанага URL, паказваючы індэкс табліцы.

Калі на старонцы некалькі табліц, эксперыментуйце з індэксам, пачынаючы з 0.

openclaw extract jsonpath --api
Copied!

Выманне спецыфічных дадзеных з адказу JSON API з выкарыстаннем JsonPath выразаў.

JsonPath падобны на XPath для JSON, што дазваляе дакладна выбіраць элементы.

openclaw extract text --url --regex ""
Copied!

Выманне тэкставых фрагментаў з вэб-старонкі, якія адпавядаюць зададзенаму рэгулярнаму выразе.

Рэгулярныя выразы ідэальна падыходзяць для вымання спецыфічных фарматаў дадзеных, такіх як даты або тэлефоны.

Апрацоўка і Фільтрацыя

openclaw process clean --input --output
Copied!

Ачышчае вынятыя дадзеныя ад лішніх сімвалаў, прабелаў і HTML-тэгаў.

Заўсёды рабіце рэзервовую копію зыходных дадзеных перад ачысткай.

openclaw process filter --field --value
Copied!

Фільтруе набор дадзеных, пакідаючы толькі запісы, дзе паказанае поле адпавядае шаблону.

Шаблон можа быць простым радком або рэгулярным выразам для складанай фільтрацыі.

openclaw process transform --field --script
Copied!

Трансфармуе значэнні паказанага поля, выконваючы ўбудаваны JavaScript-скрыпт.

Выкарыстоўвайце JavaScript для пераўтварэння фарматаў, вылічэнняў або аб'яднання палёў.

openclaw process deduplicate --field
Copied!

Выдаляе дублікаты запісаў у наборы дадзеных на аснове значэнняў паказанага поля.

Дэдуплікацыя важная для забеспячэння якасці дадзеных і пазбягання лішніх запісаў.

openclaw process sort --field --order asc
Copied!

Сартуе вынятыя дадзеныя па значэнні паказанага поля ў парадку ўзрастання (asc) або змяншэння (desc).

Сартаванне дапамагае ў аналізе і прадстаўленні дадзеных у лагічным парадку.

Аўтаматызацыя і Сцэнарыі

openclaw run script
Copied!

Выконвае карыстальніцкі JavaScript-скрыпт, які можа ўключаць у сябе паслядоўнасць каманд OpenClaw.

Скрыпты ідэальна падыходзяць для аўтаматызацыі складаных працоўных працэсаў і паўторных задач.

openclaw schedule task --name "DailyScrape" --cron "0 0 * * *"
Copied!

Плануе аўтаматычную задачу OpenClaw для выканання ў вызначаны час з дапамогай выразаў cron.

Пераканайцеся, што ваша сістэма настроена для выканання запланаваных задач.

openclaw monitor --task
Copied!

Маніторыць выкананне канкрэтнай аўтаматызаванай задачы, паказваючы яе стан і прагрэс.

Выкарыстоўвайце маніторынг для адладкі і аптымізацыі запланаваных аперацый.

openclaw pipeline create --name "MyPipeline" --steps
Copied!

Стварае канвеер апрацоўкі дадзеных, вызначаны ў файле канфігурацыі JSON, для паслядоўнага выканання крокаў.

Канвееры дазваляюць ланцужкова выконваць некалькі аперацый, такіх як 'fetch', 'extract', 'process', 'export'.

openclaw workflow start
Copied!

Запускае раней вызначаны складаны працоўны працэс або канвеер па яго ідэнтыфікатары.

Працоўныя працэсы павышаюць паўторнае выкарыстанне і маштабаванасць вашых скрапінг-праектаў.

Кіраванне Проксі і Загалоўкамі

openclaw config proxy add
Copied!

Дадае новы проксі-сервер у спіс даступных для выкарыстання OpenClaw.

Выкарыстоўвайце некалькі проксі для размеркавання нагрузкі і зніжэння рызыкі блакіроўкі.

openclaw config proxy enable --rotate
Copied!

Уключае выкарыстанне проксі-сервераў і актывуе іх аўтаматычную ратацыю для кожнага запыту.

Ратацыя проксі значна паляпшае шанцы на паспяховы скрапінг буйных сайтаў.

openclaw config headers set "User-Agent" "Mozilla/5.0..."
Copied!

Усталёўвае карыстальніцкія загалоўкі HTTP для ўсіх выходных запытаў OpenClaw.

Імітацыя загалоўкаў браўзера дапамагае пазбегнуць выяўлення і блакіроўкі.

openclaw config cookies import
Copied!

Імпартуе файлы cookie з файла JSON, дазваляючы працягваць сесіі або атрымліваць доступ да абароненых старонак.

Вы можаце экспартаваць файлы cookie з браўзера і імпартаваць іх для аўтэнтыфікаваных сесій.

openclaw config useragent random
Copied!

Настройвае OpenClaw на выкарыстанне выпадковага User-Agent для кожнага новага запыту.

Рандамізацыя User-Agent - яшчэ адзін эфектыўны спосаб пазбегнуць выяўлення сістэмамі абароны сайтаў.

Экспарт і Справаздачнасць

openclaw export csv --input --output
Copied!

Экспартуе вынятыя дадзеныя з фармату JSON у фармат CSV для зручнага аналізу ў таблічных рэдактарах.

Пераканайцеся, што ваш JSON мае плоскую структуру або выкарыстоўвайце трансфармацыю перад экспартам у CSV.

openclaw export json --input --output --pretty
Copied!

Экспартуе дадзеныя, магчыма атрыманыя з HTML, у чытэльны фармат JSON з водступамі.

Выкарыстоўвайце опцыю '--pretty' для больш лёгкага чытання і адладкі JSON-файлаў.

openclaw report generate --template --output
Copied!

Генеруе справаздачу на аснове вынятых дадзеных, выкарыстоўваючы карыстальніцкі шаблон і захоўваючы ў PDF.

Шаблоны могуць быць у фармаце Markdown, HTML або іншым, што падтрымліваецца OpenClaw.

openclaw export database --type postgres --table "my_data"
Copied!

Экспартуе вынятыя дадзеныя непасрэдна ў базу дадзеных (напрыклад, PostgreSQL, MySQL) у зададзеную табліцу.

Наладзьце параметры злучэння з базай дадзеных у канфігурацыйным файле OpenClaw.

openclaw export excel --input --output --sheet "Sheet1"
Copied!

Экспартуе вынятыя дадзеныя ў фармат Excel (XLSX), размяшчаючы іх на ўказаным аркушы.

Ідэальна падыходзіць для перадачы дадзеных бізнес-карыстальнікам або для далейшага аналізу ў Excel.

Часта Задаваныя Пытанні аб OpenClaw

Што такое OpenClaw CLI?

OpenClaw CLI - гэта перадавы інструмент каманднага радка, прызначаны для вэб-скрапінгу, вымання і аўтаматызацыі дадзеных з выкарыстаннем функцый штучнага інтэлекту для павышэння дакладнасці і эфектыўнасці.

Ці можна выкарыстоўваць OpenClaw для дынамічных сайтаў, якія выкарыстоўваюць JavaScript?

Так, OpenClaw падтрымлівае выманне дадзеных з дынамічных сайтаў, якія інтэнсіўна выкарыстоўваюць JavaScript, дзякуючы ўбудаваным магчымасцям рэндэрынгу старонак і выканання скрыптоў.

Як забяспечыць ананімнасць і пазбегнуць блакіровак пры скрапінгу з дапамогай OpenClaw?

OpenClaw прапануе шэраг функцый для забеспячэння ананімнасці, уключаючы кіраванне проксі-серверамі, аўтаматычную ратацыю IP-адрасоў, устаноўку карыстальніцкіх загалоўкаў і рандамізацыю User-Agent.

Якія фарматы экспарту дадзеных падтрымлівае OpenClaw?

OpenClaw падтрымлівае экспарт дадзеных у розныя папулярныя фарматы, такія як JSON, CSV, Excel (XLSX), а таксама прамую інтэграцыю з базамі дадзеных, напрыклад, PostgreSQL і MySQL.

Ці можна аўтаматызаваць задачы скрапінгу з дапамогай OpenClaw?

Безумоўна. OpenClaw дазваляе ствараць і запускаць карыстальніцкія скрыпты, планаваць задачы з дапамогай cron-выразаў і будаваць складаныя канвееры апрацоўкі дадзеных для поўнай аўтаматызацыі працоўных працэсаў.