BASH For-Schleife mit sehr hohen Zahlen

Ich möchte eine For-Schleife mit Zahlen im Bereich von 100.000.000.000.000.000.000 in BASH bauen, aber da gibt es dieses 64-bit Limit und auch vorher schon reicht der Speicher nicht wirklich dafür.

Gibt es eine Möglichkeit, dieses Limit zu umgehen? Im Prinzip brauche ich nur ein performantes Script, dass von 0 bis in diesen Bereich immer weiter zählt und die Zahl in einer Variablen speichert.
 
Zuletzt bearbeitet:
was willst du dennweiter damit machen?
ich glaub performant wirst du das mit nem script auf nicht hinbekommen.
was ist denn der zweck von dem script, vielleicht kann man das ganze ja eleganter lösen.
 
Eine bestimmte Website speichert Daten, die ich haben möchte, in öffentlich zugänglichen Dateien mit Zahlen in diesem Bereich als Namen. Die möchte ich mit wget downloaden.

Mir ist klar, dass es mit einfachem Zählen nichts wird, weil das viel zu lange dauert, aber es geht mir erstmal um die grundsätzliche Machbarkeit. Ich kann mir ja dann kleinere Bereiche raussuchen, die ich absuche.
 
wenn es nur ums downloaden geht brauchst du die 10^X variablen im speicher nicht, die kannst du ja irgendwo zwischenlagern.

ansonst brech das doch einfahc runter, wenn du eh nur nen kleinen bereich haben willst, zb von 10^10+10 bis 10^10+1000 um eben 990 requests abzusetzen, dann zähle doch einfach diene forschleife von 10-1000 hoch und hänge eben jenen wert an einen string an (was du ja eh machen musst, du übergibst ja einen string an wget)

damit hast du kein problem mit riesen integern.

wenn es ansonst ein inhaltsverzeichnis deiner website gibt, wäre vielleicht auch einfach die simple crawloption von wget ne variante ;)
 
ansonst brech das doch einfahc runter, wenn du eh nur nen kleinen bereich haben willst, zb von 10^10+10 bis 10^10+1000 um eben 990 requests abzusetzen, dann zähle doch einfach diene forschleife von 10-1000 hoch und hänge eben jenen wert an einen string an (was du ja eh machen musst, du übergibst ja einen string an wget)

Das ist eine gute Lösung. Hätte ich irgendwie auch selber drauf kommen sollen, aber man merkt, dass ich nicht oft scripte/programmiere :D Danke.

wenn es ansonst ein inhaltsverzeichnis deiner website gibt, wäre vielleicht auch einfach die simple crawloption von wget ne variante ;)

Gibt es nicht, sonst hätten die auch ein mittelgroßes Problem. Ich frage mich trotzdem, ob man Kundendaten so öffentlich ablegen sollte, auch wenn man die Wahrscheinlichkeit auf ein Abgreifen selbiger durch solche langen Dateinamen minimiert.
 
Zurück
Oben