لطفا وارد شوید یا ثبت‌نام کنید تا به انجمن‌ها دسترسی کامل داشته باشید.



 
امتياز موضوع :
  • 0 رأي - معدل امتيازات : 0
  • 1
  • 2
  • 3
  • 4
  • 5
دانلود سایت با wget
2007-03-05, 11:03 AM,
ارسال : #1
دانلود سایت با wget
من یه سایت دارم که می‌خوام به یه سرور دیگه منتقل کنم. روی سرور جدید می‌تونم از ssh استفاده کنم. به نظرم رسید که برای انتقال فایل‌ها از wget استفاده کنم اما مشکل اینجاست که وقتی با wget می‌گی که از یک ftp سرور کپی کنه، اول یه شاخه می‌سازه با اسم سایت بعد اسم کامل مسیر فایل و بعد فایل را کپی می‌کنه
مثلا اگه بگم:
wget -r --user=username --password=passwor <!-- m --><a class="postlink" href="ftp://ftp.mysite.ir/public_html">ftp://ftp.mysite.ir/public_html</a><!-- m -->
و یه فایل index.php توی مسیر /public_html/ داشته باشم به جای اینکه فایل index.php را توی شاخه جاری کپی کنه، میره یه شاخه می‌سازه به اسم ftp.mysite.ir/public_html و فایل index.php را کپی می‌کنه اونجا.

کسی می‌دونه راه حلی داره یا نه؟ و اگه راه‌حلی داره چطوره؟
مشاهده تارنمای کاربر جستجوی تمامی ارسال های کاربر
نقل قول این ارسال در یک پاسخ
2007-03-05, 03:08 PM,
ارسال : #2
 
سلام

می‌تونید بعد از دانلود کامل با دستور mv شاخه‌ی public_html رو از توش بکشید بیرون. (که راه حل مبنی بر wget نیست مسلما!)

راستش شاید من درست متوجه نشدم که این مشکلش کجاست و جالب هم هست، چون اگر مثلا یه دایرکتوری از اون‌ها رو می‌خواستید طبیعتا این قابلیت گاهی عذاب آور می‌شه چون دائما تعداد زیادی دایرکتوری که نیاز نداریم رو کپی می‌:نه. اما وقتی همه رو می‌خواهیم بگیریم این قضیه چطور باعث ایجاد مزاحمت می‌شه؟

[ltr]
$Nəvid$
In a world without any fences or walls,
Who needs gates or windows ?
گنو ایران | لیست مقالات فارسی گنو ایران |
[/ltr]
مشاهده تارنمای کاربر جستجوی تمامی ارسال های کاربر
نقل قول این ارسال در یک پاسخ
2007-03-05, 05:34 PM,
ارسال : #3
 
قضیه اینه که این روش برای این درست شده که وقتی شما دارید یه فایل را از پروتکل http می‌گیرید با فعال کردن سوییچ r ممکنه یه فایل توی یه سایت دیگه یا یه شاخه بالاتر از شاخه فعلی وجود داشته باشه و اگه این سیستم استفاده نشه برای دانلود دچار مشکل می‌شیم. اما اگه بخواهیم از یه سطح به پایین را بگیریم مشکلی ایجاد نمی‌شه (بخصوص در ftp)

البته استفاده از دستور mv هم یه راهه که نمی‌دونم چرا من اصلا به ذهنم نرسیده بود (واقعا مایه شرم‌ساری است!) اما الان می‌خوام بدونم آیا واقعا راه‌حلی نداره؟
نقل قول این ارسال در یک پاسخ
2007-03-05, 10:58 PM,
ارسال : #4
 
راستش برای من هم یکمی جالب شد، اول از np استفاده کردم یعنی No Parents و بعد از l برای Level استفاده کردم که شاید بگیم اصلا دنبال لینک‌های داخلش نره (که توی ftp همون softlinkها می‌شه) و .... یه سری به جاهای مختلف و man pageاش زدم،‌اما گزینه‌ای پیدا نکردم که بگه مثلا از آدرس navid.com/site/cms/download فقط download رو بگیره و در تمام حالت‌ها اون شاخه‌های قبلی و گاهی یه چیزهای اضافه‌ای می‌گیره!

[ltr]
$Nəvid$
In a world without any fences or walls,
Who needs gates or windows ?
گنو ایران | لیست مقالات فارسی گنو ایران |
[/ltr]
مشاهده تارنمای کاربر جستجوی تمامی ارسال های کاربر
نقل قول این ارسال در یک پاسخ
2007-03-06, 02:48 AM,
ارسال : #5
 
این مثال رو ببینید به دردتون میخوره یا نه (از راهنمای اینفو):
wget --mirror --convert-links --backup-converted <!-- m --><a class="postlink" href="http://www.gnu.org/">http://www.gnu.org/</a><!-- m --> -o /home/me/weeklog

منظورم قسمت آخرشه.
نقل قول این ارسال در یک پاسخ
2007-03-07, 12:46 AM,
ارسال : #6
 
اگه منظورتون -o باشه که این برای تعیین محل خروجی مفیده اگر هم منظورتون --mirror یا --convert-link و ... باشه تست شد جواب نمی‌ده!
مشاهده تارنمای کاربر جستجوی تمامی ارسال های کاربر
نقل قول این ارسال در یک پاسخ
2007-03-07, 12:58 AM,
ارسال : #7
 
فکر کنم پیداش کردم! :!:
باید از کزینه nH- استفاده کرد تا نام سایت را ننویسه بعد از کزینه cut-dirs=n-- استفاده کرد تا تعداد n تا از شاخه‌ها را نسازه.
مثلا برای دانلود <!-- m --><a class="postlink" href="ftp://sadeq.ir/public_html">ftp://sadeq.ir/public_html</a><!-- m --> باید این دستور را استفاده کرد:
[ltr]
کد :
wget -r  --user=MyUsername --password=MyPassword -nH --cut-dirs=1 ftp://sadeq.ir/public_html/
[/ltr]
از همه دوستان که همفکری کردند ممنون
مشاهده تارنمای کاربر جستجوی تمامی ارسال های کاربر
نقل قول این ارسال در یک پاسخ
2007-03-07, 06:30 AM,
ارسال : #8
 
منم میخوام همین کارو کنم این دستور بالایی رو بزنم...قضیه n رو نفهمیدم.....دیتابیس من حجمش زیاده چطور میتونم منتقل کنم بنظرتون
نقل قول این ارسال در یک پاسخ
2007-03-11, 07:39 PM,
ارسال : #9
 
-nH کاری که می‌کنه اینه که شاخه مربوط به سایت (در مثال بالا sadeq.ir/.) را نمی‌سازه
در مورد دیتابیس باید export/import کرد دیگه.
مشاهده تارنمای کاربر جستجوی تمامی ارسال های کاربر
نقل قول این ارسال در یک پاسخ
2007-03-11, 08:59 PM,
ارسال : #10
 
در اصل دست شما درد نکنه که نتیجه‌ی جستجوهات رو با بقیه به اشتراک گذاشتی ;-)
این قضیه توی Manual Pageهای برنامه نوشته شده. اما چرا توی نگاه اول متوجهش نشدم احتمالا ناشی از ضعف زبان انگلیسی هست ;-)
[ltr]
-nH
--no-host-directories

Disable generation of host-prefixed directories. By default,
invoking Wget with -r <!-- m --><a class="postlink" href="http://fly.srk.fer.hr/">http://fly.srk.fer.hr/</a><!-- m --> will create a struc‐
ture of directories beginning with fly.srk.fer.hr/. This option
disables such behavior.

[/ltr]

[ltr]
$Nəvid$
In a world without any fences or walls,
Who needs gates or windows ?
گنو ایران | لیست مقالات فارسی گنو ایران |
[/ltr]
مشاهده تارنمای کاربر جستجوی تمامی ارسال های کاربر
نقل قول این ارسال در یک پاسخ
2008-04-17, 09:04 AM,
ارسال : #11
 
امروز هم نیاز به این گزینه‌ی wget داشتم و توی گوگل گشتم و جالبه که این پست تکنوتاکس توی نتایج اومد ;-)
مشاهده تارنمای کاربر جستجوی تمامی ارسال های کاربر
نقل قول این ارسال در یک پاسخ
2008-04-17, 04:29 PM,
ارسال : #12
 
پاسخ این تاپیک داده شده؟
چون بنده تازه منوالش رو خوندم و دیدم که بقدر کافی منعطف هست.
شما میتونید ایجاد دایرکتوریها رو تاحد زیادی کنترل کنید.
حتی یک آپشن داره که میشه تعداد لازم از دایرکتوریهایی رو که در مسیر اصلی قرار دارن حذف کرد.


Only God

I Wish I Was Buddha
کاش بودا بودم

Live And Let Live
زندگی کن و بگذار زندگی کنند

Forgive And Be Forgiven
ببخش و بخشیده شو

مشاهده تارنمای کاربر جستجوی تمامی ارسال های کاربر
نقل قول این ارسال در یک پاسخ
2008-04-26, 02:09 PM,
ارسال : #13
 
اسان تر از همه اینها همه فایل هارا zip می کردین و بعد فایل zip را wget می کردین
جستجوی تمامی ارسال های کاربر
نقل قول این ارسال در یک پاسخ


رفتن به انجمن :


کاربران در حال مشاهده موضوع : 1 مهمان