GMOT
Nieuws:
 
*
Welkom, Gast. Alsjeblieft inloggen of registreren. 20 Juli 2019, 13:00:23


Login met gebruikersnaam, wachtwoord en sessielengte


Pagina's: 1 [2] 3
  Print  
Advertenties


ericlegomeer
King of the hill
******

Berichten: 1.664


http://xkcd.com/386/


Bekijk profiel
« Antwoord #15 Gepost op: 07 April 2016, 19:16:23 »

Laptops en desktops synchroniseren belangrijke mappen/bestanden direct naar m'n lokale Synology NAS (4*2TB RAID6) via dropbox alike software, maar dan van Synology. Heeft gewoon versie geschiedenis en dergelijke voor als er iets verwijderd of overschreven wordt ^^

Telefoon synchroniseert belangrijke zaken tijdens het opladen (om de dag dus) via Syncthing naar diezelfde NAS. Syncthing biedt ook de mogelijkheid tot versie geschiedenis en één richting synchronisatie.

Iedere nacht synchroniseert m'n NAS gedeeltelijk* incrementeel (en met versie geschiedenis) met een offsite Synology NAS (2*2TB in RAID1) via rsync alike software, maar dan van Synology. Dit dagelijks doen zorgt ervoor dat er maar weinig data over het internet gegooid hoeft te worden Smiley

Eens in de zoveel tijd maak ik volledige images van m'n SSDs (en die van anderen, met toestemming ofc :p) voor het geval er ooit iets té erg upfuckt, maar die heb ik gelukkig nog nooit hoeven te gebruiken ^^

* Gedeeltelijk in de zin van niet alle mappen en bestanden, cuz niet alles past offsite op m'n oude NAS :p Gelukkig is niet alles belangrijk genoeg om te back-uppen c:
Gelogd



Sunnywout
Infinity
*********

Berichten: 17.710


speel mijn game


Bekijk profiel WWW
« Antwoord #16 Gepost op: 07 April 2016, 22:09:33 »

Alle belangrijke bestanden voor school staan gedeeltelijk in Google Drive (samenwerkingsopdrachten), en gedeeltelijk in ownCloud. Omdat ownCloud wordt gesynchroniseerd naar een aantal PC's en een aantal virtuele PC's kan ik daarmee nauwelijks data kwijtraken.

Mijn telefoon uploadt nieuwe foto's automatisch naar ownCloud, dat is ook de enige data die ik er niet na een ramp opnieuw voor zou kunnen downloaden.

Voor de rest heb ik geen belangrijke data waar ik back-ups van zou moeten maken.
Gelogd

shitposting is a lifestyle, not a disease

RA
Pretty addicted
*******

Berichten: 4.702



Bekijk profiel
« Antwoord #17 Gepost op: 13 April 2016, 14:20:46 »

Server omgevingen

Als het om backups gaat hanteer ik 2 dingen:

- Als je backups nodig hebt voor dataherstel, is je eigen werk wellicht niet te vertrouwen. Wees dus niet afhankelijk van je eigen backups.
- Als je backups niet test, zijn je backups niets waard.
- Vergeet veiligheid niet. Zet niet al je prive data zomaar bij de buurman.

GitHub
Is al eerder genoemd, prima oplossing voor alle niet prive bestanden zoals (open source) code en configuratie. Het is eenvoudig van te herstellen en gemakkelijk online te controleren.

Tarsnap
Tarsnap is een CLI backup tool dat client-side je data encrypt en vervolgens onleesbaar naar amazon AWS stuurt. Deze externe backup is zeer goedkoop (draai al maanden, zo niet ruim een jaar op een nog geen 2 euro) en makkelijk te automatiseren.

Ik gebruik een combinatie van deze 2 middelen. Er worden automatisch periodiek backups gemaakt van data die niet op GitHub staat (db en media). Ik test deze backups door periodiek een nieuwe server aan te slingeren die een Ansible playbook gebruikt te recoveren en door te gaan. Als de backups werken zorgt dit voor een naadloze overgang.

Server deployment -> Backup recovery -> Start services -> Start backup schedule

Het enige wat ik nog anders wil doen is de deployment. Op het moment van deployment overschrijf ik de oude configuratie en recover ik vervolgens  backups. Als de backups invalid blijken te zijn ben ik vrij zuur (hoewel oude data wellicht nog ergens te vinden kan zijn op de server).

Beter zou zijn om altijd naar een nieuwe node te deployen en te swappen tussen nodes als alles gereed is, dit verminderd downtime en geeft je een kans om zelf te verifieren of alles goed gegaan is alvorens de oude data te vernietigen.

Niet-server omgevingen

In niet server omgevingen probeer ik de hoeveelheid belangrijke data gewoon te verminderen. Ik laat semi-belangrijke dingen zoveel mogelijk op hosted mail staan (jaja, privacy) en andere dingen probeer ik zoveel mogelijk zowel lokaal als op een cloud aanbieder op te slaan.

Super belangrijke/prive dingen encrypted op een usb stick die ik altijd bij me heb. Usb stick heeft wellicht een nare bijsmaak maar als de data erop puur encrypted opslaat valt het risico mee. Daarnaast als je hem altijd bij je hebt (bijvoorbeeld sleutelbos) verlaag je de kans op diefstal ergens anders en ben je niet afhankelijk van online partijen (waar je eigenlijk 0 controle over hebt).
« Laatste verandering: 13 April 2016, 14:33:02 door RA » Gelogd


superice
Pretty addicted
*******

Berichten: 2.746


Genie in ruste.


Bekijk profiel
« Antwoord #18 Gepost op: 13 April 2016, 14:34:43 »

Ik ben insane en heb alle foto's en filmpjes van mijn ouders in een git repo gezet (>300GB) en heb deze vanaf snel internet in een paar uur naar een dedicated server gepusht (kimsufi). Toen heb ik twee bashscripts gemaakt, voor committen en pushen, en een briefje naast de computer gehangen dat mijn ouders die twee moeten draaien als ze nieuwe foto's toevoegen vanaf SD-kaart.

Niet waar git voor bedoeld is, maar het werkt verrassend goed Smiley

Oh, en voor mezelf doe ik alle code in Git bewaren op bitbucket en github. Databases doen iedere nacht backuppen naar die tweede server. De rest kan ik weggooien en is vervangbaar.
Gelogd

RA
Pretty addicted
*******

Berichten: 4.702



Bekijk profiel
« Antwoord #19 Gepost op: 13 April 2016, 14:36:21 »

Ik ben insane en heb alle foto's en filmpjes van mijn ouders in een git repo gezet (>300GB) en heb deze vanaf snel internet in een paar uur naar een dedicated server gepusht (kimsufi). Toen heb ik twee bashscripts gemaakt, voor committen en pushen, en een briefje naast de computer gehangen dat mijn ouders die twee moeten draaien als ze nieuwe foto's toevoegen vanaf SD-kaart.

Niet waar git voor bedoeld is, maar het werkt verrassend goed Smiley

Oh, en voor mezelf doe ik alle code in Git bewaren op bitbucket en github. Databases doen iedere nacht backuppen naar die tweede server. De rest kan ik weggooien en is vervangbaar.

Kudos
Gelogd


kaas1
Infinity
*********

Berichten: 19.941


LeesMij.txt


Bekijk profiel
« Antwoord #20 Gepost op: 13 April 2016, 15:42:10 »

Ik word elke keer weer zenuwachtig als ik mensen over backups hoor praten. Ik denk dat ik eens btsync ga proberen.
Gelogd


Ant-99
King of the hill
******

Berichten: 1.846


Speurneus in wording


Bekijk profiel
« Antwoord #21 Gepost op: 13 April 2016, 18:52:06 »

* knip *
Heb je een link naar cheap Amazon storage? Lijkt superinteressant!

Bedankt voor jullie uitleg allemaal. Ik moet ook eens iets gaan doen hier.
Gelogd

Voor eeuwig opgescheept met deze avatar. Er is iets fout gegaan bij het wegschrijven van je bijlage, probeer het alsjeblieft nog eens.

(RIP)

ericlegomeer
King of the hill
******

Berichten: 1.664


http://xkcd.com/386/


Bekijk profiel
« Antwoord #22 Gepost op: 13 April 2016, 19:36:06 »

Je moet wel een beetje opletten voor je besluit iets als Amazon Glacier te gebruiken. Het opslaan is vaak goedkoop, maar de data er weer uit trekken wanneer je werkelijk je backup wilt restoren kan in de kosten lopen. Je moet voor je zelf dus maar het rekensommetje maken of het (te) duur wordt of niet: https://aws.amazon.com/glacier/pricing/

Simpel rekenvoorbeeldje voor Glacier:
Een backup van 1tb daar laten staan kost je zo'n 7 euro per maand (dat is exclusief de kosten het daar te krijgen). Diezelfde backup in één keer terughalen op het moment dat je hem écht nodig hebt, zal je zo'n 80 euro kosten.

En natuurlijk betaal je die 80 euro gewoon aangezien je je backup op dat moment heel hard nodig hebt Smiley

Nu zijn er goedkopere mogelijkheden, zoals gespreid data terughalen, maar het is maar net of je daar mee kunt leven. Zoals ik zei, je moet voor jezelf goed bekijken of je het waard vind of niet. En dan voornamelijk in het rampscenario waarop je je data asap nodig hebt, omdat je alles kwijt bent (of omdat je geen data meer bij Amazon wilt hebben staan) ^^
Gelogd



RA
Pretty addicted
*******

Berichten: 4.702



Bekijk profiel
« Antwoord #23 Gepost op: 13 April 2016, 19:50:25 »

Tarsnap regels het amazon gedeelte en de kosten zijn te verwaarlozen bij lage hoeveelheden data. Je kan gewoon hier een accountje maken, saldo opzetten, en de tutorial volgen: https://www.tarsnap.com
Gelogd


ericlegomeer
King of the hill
******

Berichten: 1.664


http://xkcd.com/386/


Bekijk profiel
« Antwoord #24 Gepost op: 14 April 2016, 06:08:53 »

Een simpel rekenvoorbeeldje voor Tarsnap:
Een backup van 1tb daar laten staan kost je zo'n 230 euro per maand (dat is exclusief de kosten het daar te krijgen (ook 230 euro)). Diezelfde backup in terughalen op het moment dat je hem écht nodig hebt, zal je ook zo'n 230 euro kosten.

Zoals ze zeggen, het is voor de "truly paranoid" en die hebben dat geld er vast voor over Smiley

Bij kleine hoeveelheden data zal het wel uit te houden zijn. Als jij al een jaar draait op 2 euro* dan heb je er slechts 9GB aan data staan? Dat is iets meer dan een halve USBstick Tongue Het direct bij Amazon Glacier zou dat je zo'n 5 cent kosten, gewoon om het even in perspecief te zetten Wink

Maar iedereen moet gewoon doen wat ze het liefste doen natuurlijk c:

* Ik gok dat je per maand bedoelt en voor het gemak dat het enkel om de storage gaat (dus niet de bandwidth)
Gelogd



@-wout
Administrator
Approaching infinity
*********

Berichten: 9.429



Bekijk profiel WWW
« Antwoord #25 Gepost op: 14 April 2016, 16:36:22 »

Ik backup alles automatisch met DirectAdmin, die weer alles tar't, gzip't en vervolgens upload naar externe servers.
Gelogd

RA
Pretty addicted
*******

Berichten: 4.702



Bekijk profiel
« Antwoord #26 Gepost op: 14 April 2016, 19:48:14 »

Een simpel rekenvoorbeeldje voor Tarsnap:
Een backup van 1tb daar laten staan kost je zo'n 230 euro per maand (dat is exclusief de kosten het daar te krijgen (ook 230 euro)). Diezelfde backup in terughalen op het moment dat je hem écht nodig hebt, zal je ook zo'n 230 euro kosten.

Zoals ze zeggen, het is voor de "truly paranoid" en die hebben dat geld er vast voor over Smiley

Bij kleine hoeveelheden data zal het wel uit te houden zijn. Als jij al een jaar draait op 2 euro* dan heb je er slechts 9GB aan data staan? Dat is iets meer dan een halve USBstick Tongue Het direct bij Amazon Glacier zou dat je zo'n 5 cent kosten, gewoon om het even in perspecief te zetten Wink

Maar iedereen moet gewoon doen wat ze het liefste doen natuurlijk c:

* Ik gok dat je per maand bedoelt en voor het gemak dat het enkel om de storage gaat (dus niet de bandwidth)

Tarsnap zet de data niet 1 op 1 over en comprimeer moke hard en doet vervolgens aan diffs en incrementele backups. De daadwerkelijke blob is dus niet zo groot.

Het voordeel van tarsnap is de veiligheid d.m.v. de encryptie, bij echt grote volumes is het iets duurder ja, daarom gebruik ik het puur voor gevoelige belangrijke data die automatisch extern ergens heen moet.

Zie ook: http://www.daemonology.net/blog/2012-09-04-why-tarsnap-doesnt-use-glacier.html
Gelogd


Maarten
Approaching infinity
********

Berichten: 8.274



Bekijk profiel
« Antwoord #27 Gepost op: 14 April 2016, 21:25:23 »

Wat denken jullie trouwens over het gebruik van Stack om back-ups op te slaan als off-site opslag?
Gelogd

lucb1e
Approaching infinity
********

Berichten: 7.270



Bekijk profiel WWW
« Antwoord #28 Gepost op: 15 April 2016, 20:31:35 »

Klinkt goed, maar ik zou het wel client-side encrypten.
Gelogd

jw
King of the hill
******

Berichten: 2.199


Mijn naam is Joey


Bekijk profiel WWW
« Antwoord #29 Gepost op: 15 April 2016, 21:01:49 »

1TB gratis Cheesy
Gelogd



Advertenties
Pagina's: 1 [2] 3
  Print  

 
Ga naar:  

Powered by SMF 1.1.21 | SMF © 2006-2011, Simple Machines | Smartphoneversie bekijken

Dilber MC Theme by HarzeM