Denna delen av 99 uppdateras inte längre utan har arkiverats inför framtiden som ett museum.
Här kan du läsa mer om varför.
Mac-nyheter hittar du på Macradion.com och forumet hittar du via Applebubblan.

Ladda ner filer med terminalen

Tråden skapades och har fått 12 svar. Det senaste inlägget skrevs .
1

Har glömt de magiska komandona för att ladda hem filer via terminalen. Hoppas att någon här kommer ihåg.

Tacksam för alla svar. :rolleyes:

Ahhhh... är det ingen som kommer ihåg eller kan komandona?

Det finns en del olika sätt att ladda ner och skicka filer via Terminalen.

Kan du specifiera dig mer?

Du kanske menar "scp"?

Citat:

quote:Skapades ursprungligen av: Johan Way:
Ahhhh... är det ingen som kommer ihåg eller kan komandona?

Kan ju bero på tiden för dina meddelanden...

Prova även ´ftp´

Kolla:
man ftp

Du startar ftp genom att skriva ftp i terminalen.
sedan kopplar du upp dig genom att skriva
open "platsen" (inga " " IP eller namnet )
ex. open ftp.sunet.se
Du navigerar med cd du kan lista katalogen med ls
för att få hem en fil skriver du get filnamn

  • Medlem
  • 2002-07-14 11:28

Och vet du den exakta urlen till det du ska ta hem så finns ju ´wget´, men det måste du installera först. Finns här . Mäkta enkelt program, bara skriva wget och sen urlen så tankar den glatt ner saker

/Johan

istället för wget kan man använda ´curl´ som följer med OS X

curl -O http://url.till.det/man/vill/ladda.ner

  • Medlem
  • Stockholm
  • 2002-07-14 15:35

Det såg ju riktigt häftigt ut att använda curl för att hämta hem filer

Någon som vet om det finns fördelar med att tanka så? Tex om det går fortare än att tanka via explorer eller fetch (särskilt än explorer?).

Ska läsa man filen och försöka se om man inte kan göra ett alias som tankar till skrivbordet ist.

Alias till skrivbordet? Vet inte om jag missuppfattar dig, men curl läger filerna i den katalogen som du står i när du använder det.

En fördel är att du kan starta en större nedladdning och sedan lägga den processen i bakgrunden och sedan logga ur. curl fortsätter att ladda tills det är klart.

Citat:

quote:Skapades ursprungligen av: odlund:

Citat:

quote:Skapades ursprungligen av: Johan Way:
Ahhhh... är det ingen som kommer ihåg eller kan komandona?

Kan ju bero på tiden för dina meddelanden...

Prova även ´ftp´

Sömnsvårigheter är min största last. Därav tiderna.

Vänligen

/ Johan :rolleyes:

Curl är ett otroligt bra verktyg. Är man webbutvecklare bör man definitivt ta sig tiden att läsa bruksanvisningen noga! T.ex. är curl kombinerat med cron (som kör kommandon efter ett schema) ett ypperligt sätt att snabba upp visningen av databaskopplade webbsidor! Kör man t.ex. följande:

Citat:

code:<pre style="font-size:x-small; font-family: monospace;">curl http://min_server/seg_forstasida.php > /Library/WebServer/Documents/toksnabb_forstasida.html</pre>

kanske en gång i timmen, så kommer belastningen på webbservern och databasservern att minska otroligt, iaf om man har många besökare. Väldigt OT, men jag missar aldrig en chans att lovprisa curl...

  • Medlem
  • Stockholm
  • 2002-07-15 11:10
Citat:

quote:Skapades ursprungligen av: ivar:
Det såg ju riktigt häftigt ut att använda curl för att hämta hem filer

Någon som vet om det finns fördelar med att tanka så? Tex om det går fortare än att tanka via explorer eller fetch (särskilt än explorer?).

Ska läsa man filen och försöka se om man inte kan göra ett alias som tankar till skrivbordet ist.

Vet inte om det går fortare eller inte men vet att det är väldigt mycket lättare att scripta. Gör backup av ett par ftper mha wget och cronjob. Funkar finfint!

/glemme

Fetch tycker om att dra väldigt mycket CPU, det gör inte dessa program.

Det är en fördel om du inte har en snabb dator eller helt enkelt är rädd om dina klockcycler.

1
Bevaka tråden