Hallo,
da jetzt schon jimmy wales zum spenden aufruft für 6 mio $ kommt mir die frage ob man das nicht durch dezente werbeeinschaltungen bzw durch den einsatz von p2p techniken die traffic bzw die serverkosten drastisch minimieren könnte. mit p2p meine ich dass einige 10^5 leute eine client software installieren und so die encyclopädie ähnlich wuala auf den hdd verteilen (vll. 5 GB pro person) das würde den traffic enorm senken.
was haltet ihr davon?
Seite 1 von 1
Wikipedia über P2p
Anzeige
#2
geschrieben 26. Dezember 2008 - 20:03
dann müsste das ganze aber wieder redundant aufgebaut sein, will heisen mehrere leute müssen ein und das selbe haben, sonst ist die gefahr viel zu groß das die 5 gb einfach nicht erreichbar sind...
berrichtigt mich wenn ich falsch liege.
und die software müsst wohl erst geschrieben/angepasst werden
auserdem muss jeder "client" eine relativ gute anbindung ans internet haben da es sonst wohl zu nicht unerheblichen ladezeiten kommen würde!
MfG
berrichtigt mich wenn ich falsch liege.
und die software müsst wohl erst geschrieben/angepasst werden
auserdem muss jeder "client" eine relativ gute anbindung ans internet haben da es sonst wohl zu nicht unerheblichen ladezeiten kommen würde!
MfG
Dieser Beitrag wurde von blaha bearbeitet: 26. Dezember 2008 - 20:05
#3 _Nippi_
geschrieben 26. Dezember 2008 - 20:14
Dann soll er lieber mal Werbung schalten, als das jeder User irgendwelche Daten auf seinem Computer sammelt & die ständig bereitstellen muss.
#4
geschrieben 26. Dezember 2008 - 20:22
selbsverständlich redundat
wenn 200.000 leute 5 gb material hätten und wikipedia sagmal 500 gb groß ist wäre jede datei 2000 mal gespeichert.wenn ein durchschnittsbürger eine 100 kByte/s leitung upload hat denk ich mal würde es sich ausgehen.
und sonst könnte man ein java applet in wiki einbinden dass einen die gespeicherten seiten speichert und teilt und nicht die gesasmten 5 gb oder mehr. speicher hat ma ja eh im überfluss^^
wenn 200.000 leute 5 gb material hätten und wikipedia sagmal 500 gb groß ist wäre jede datei 2000 mal gespeichert.wenn ein durchschnittsbürger eine 100 kByte/s leitung upload hat denk ich mal würde es sich ausgehen.
und sonst könnte man ein java applet in wiki einbinden dass einen die gespeicherten seiten speichert und teilt und nicht die gesasmten 5 gb oder mehr. speicher hat ma ja eh im überfluss^^
Posting Bullshit since 2006.
#5
geschrieben 26. Dezember 2008 - 22:14
Zitat (oli37: 26.12.2008, 20:22)
selbsverständlich redundat
wenn 200.000 leute 5 gb material hätten und wikipedia sagmal 500 gb groß ist wäre jede datei 2000 mal gespeichert.wenn ein durchschnittsbürger eine 100 kByte/s leitung upload hat denk ich mal würde es sich ausgehen.
und sonst könnte man ein java applet in wiki einbinden dass einen die gespeicherten seiten speichert und teilt und nicht die gesasmten 5 gb oder mehr. speicher hat ma ja eh im überfluss^^
wenn 200.000 leute 5 gb material hätten und wikipedia sagmal 500 gb groß ist wäre jede datei 2000 mal gespeichert.wenn ein durchschnittsbürger eine 100 kByte/s leitung upload hat denk ich mal würde es sich ausgehen.
und sonst könnte man ein java applet in wiki einbinden dass einen die gespeicherten seiten speichert und teilt und nicht die gesasmten 5 gb oder mehr. speicher hat ma ja eh im überfluss^^
kannste vergessen, das wär viel zu langsam
Thema verteilen:
Seite 1 von 1

Hilfe
Neues Thema
Antworten

Nach oben



