Server 2012R2 Was ist zu tun?
#1
geschrieben 02. Juni 2015 - 09:08
wir haben die Aufgabe eine neue AD aufzubauen. Mein Kollege und ich habe schon Erfahrung in der Administration von Server2008R2 und im Umgang mit Servern aber wir haben bis jetzt noch keine AD selbst hochgezogen. Wir haben die Aufgabe bekommen und sollen alles neu machen.
Unser Istzustand sind 150 User, wir wollen aber Reserven haben um 200 User über die nächsten Jahre abdecken zu können.
Sollzustand pro User mindestens 10 GB H-Laufwerk, es sollen keine Daten lokal abgelegt werden, leider machen das ein paar User, in Zukunft soll das nicht mehr möglich sein. Weitere Netzlaufwerke haben wir mit insgesamt 100 GB - 200 GB kalkuliert.
Dienste die wir abbilden möchten
Infrastruktur:
DHCP
DNS
Backup Server
Active Directory:
Domain Controller
File Server
Druckserver
SCCM:
WSUS
WDS
Jetzt ist die Frage, wie viele Server mit welcher Hardware Mindestanforderung würdet Ihr beschaffen und welche Server würdet Ihr als VM laufen lassen und welche nicht als VM. Es steht auch noch die Frage aus, ob wir auf HyperV setzten oder VMWare ESX, bei HyperV wird noch ein normal installierter Server als Manager der anderen (VMs) benötigt, welchen würdet Ihr dafür nutzen?
Bezüglich Backup, da haben mein Kollege und ich an SAN gedacht, aber was würdet Ihr vorschlagen und welchen Plattenplatz schätzt Ihr?
Virusschutz wollten wir mit McAfee EPO abdecken, was nehmt Ihr in der Regel oder was schlagt Ihr vor?
Die Workstations laufen mit Windows 7 und werden denke ich nicht auf Windows 8.1 umgestellt, da dies für die User eine zu große Umstellung ist, egal ob mit oder ohne Classic Shell . Wir würden evtl. auf Windows 10 setzten. Aktuell bleiben wir aber bei Windows 7.
Falls wir noch Dienste oben vergessen haben sollten, einfach ergänzen. Vielen Dank an alle im Voraus.
Anzeige
#2
geschrieben 02. Juni 2015 - 11:54
dann würde ich 2 mindestens 1 Blech DC und Blech Backupserver, 2 HyperV/ESX Server als Cluster machen sowas http://www8.hp.com/u...tml?oid=7271241 mit mindestens 128 iger RAM je eher mehr
kommt drauf an was billiger von den Lizenzen ist aber ESX ist erwachsener
bei HyperV kostet Management-Software ab 2012 auch einiges
Storage braucht ihr auch! http://www.dell.com/...36x0f-series/pd sowas?
Netzhardware? was habt ihr euch am Preis vorgestellt? iSCSI geht auch aber lasst euch da die 10 Gibt garantieren.
nur mal grob runtergetippert
Dieser Beitrag wurde von dale bearbeitet: 02. Juni 2015 - 11:58
#3
geschrieben 02. Juni 2015 - 16:26
Um das sicherzustellen, daß lokal nicht gespeichert werden kann, würd ich da auf serverseitige Profile setzen und ein paar mehr GB/User an Netzwerkquota veranschlagen. 10GB/User * 200 Benutzer... wären runde 2 Terabyte, veranschlagen wir also 3-4TB (15 bzw. 20 GB/User).
Dafür einen eigenen Blechserver. Je nachdem, wie kritisch das ist, auch mehr davon in einer Failoverkonfiguration (oder DFS, aber da wär ich vorsichtig; so richtig *problemlos* funktioniert das leider nicht).
DNS und DHCP fressen nicht viel und können in die VM - bedenkt aber, daß dafür ebenfalls ein Blechserver fällig wird, der dann die VMs bereitstellt.
Der DC frißt auch nicht viel. Rein THEORETISCH kann er in eine VM. Davon würde ich aber dringend abraten, insbesondere wenn das nur *ein* DC ist. Aus Sicherheitsgründen kommt der DC auf sein eigenes Blech.
Soll der System Center Configuration Manager (SCCM) ebenfalls ausgerollt werden? Falls ja: Eigenes Blech. Besser noch: Zwei Bleche, eines für MSSQL und eines für den SCCM selber.
Der WDS ist so hungrig nicht, und soo viel zu tun haben sollte er auch nicht, daß man da über "VM" nachdenken könnte. Würde da kurzen Prozeß machen und ihn auf die DCHP-Maschine draufsetzen. Da ist er am Besten aufgehoben.
WSUS dagegen hat größeren Hunger. Eigenes Blech und ihn als Datenbankserver behandeln, was die Systemanforderungen angeht. Alternativ die SUSDB auf einen dedizierten Datenbankserver (also MSSQL) auslagern, dann ist der Rest des WSUS genügsamer.
SAN klingt für mich erstmal nach ein bißchen Overkill. Bedenkt auch, daß da jede Menge Mehraufwand und -kosten für SAN dazukommen (die zusätzlich erforderliche Infrastruktur dafür auch nicht vergessen). iSCSI genügt vermutlich... erfordert aber natürlich ebenfalls seine eigene Infrastruktur.
Re: Virtualisierung... ist jetzt zu fragen, wie redundant das sein soll. Rein von der Sache her denke ich wären zwei dedizierte Bleche mit je zwei VMs darauf ausreichend, wobei da ein einfach redundanter DNS-Server mit drin steckt (also 2x DNS zusätzlich zum Domain Controller, 1x DHCP (plus evtl WDS) und 1x wäre noch "frei").
In diesem Fall würde je eine WS2012R2 Standard-Lizenz für eine Hyper-V-Implementierung genügen. Ansonsten hieße das "Enterprise-Lizenz" und die kostet das Zehnfache.
Das gilt natürlich nicht für die anderen Implementierungen.
... Ach ja. Erforderliches Volumen für den Backupserver. Da müßt ihr Euch erstmal hinsetzen und eine Backupstrategie überlegen. Was muß gesichert werden? Was braucht/soll NICHT gesichert werden? Wie oft? Wie aktuell muß das Backup sein, und wie lange muß ein jedes Backup verfügbar bleiben? Und so weiter? Bitte auch nicht den evtl vorhandenen MSSQL-Server vergessen, der erfordert seine eigenen Stategien und ein einfaches Datei-Backup *reicht dafür nicht aus*. Auch den WSUS nicht vergessen - der ist platzhungrig, wenn Updatedateien lokal vorgehalten werden sollen/müssen.
Dann ist zu fragen, wie sehr die User ihr Quota ausnutzen. Müssen 2TB total an Nutzerdaten auf den Netzlaufwerken fest eingeplant werden? Oder tut es auch weniger für eine Weile?
Dieser Beitrag wurde von RalphS bearbeitet: 02. Juni 2015 - 16:30
#4
geschrieben 02. Juni 2015 - 16:46
Mein Link
#5
geschrieben 02. Juni 2015 - 17:25
#6
geschrieben 02. Juni 2015 - 17:29
#7
geschrieben 04. Juni 2015 - 05:00
1. DELL R320
Rollen: DC,DNS,DHCP,Print
2. DELL R320
Rollen: DC,DNS,DHCP
3. DELL R320
Rollen: Datenbank
4. DELL R520 (8x 4TB)
Rollen: SCCM mit WSUS, Fileserver
5. DELL R520 (8x 4TB)
Rollen: Backup und Datenbank
Virtualisierung macht in dem Umfang kein Sinn, weil das SAN noch her muss. Ihr fragt nicht nach Netzwerk, dem wichtigsten Thema überhaupt, daher muss ich leider feststellen und mitteilen, dass ihr keine Ahnung habt und euch dringend raten es sein zu lassen.
Ich habe die Tage zwei Dell N2024 auf den Tisch bekommen und muss sagen, dass dieses Switches sich sehen lassen können. Das MLAG ist eine feine Sache.
Dieser Beitrag wurde von shiversc bearbeitet: 04. Juni 2015 - 05:01
#8
geschrieben 04. Juni 2015 - 11:57
ich bedanke mich an dieser Stelle bei allen für die guten Tipps, besonderen Dank an Ralphs.
Wie in meinem ersten Beitrag geschrieben, haben wir gute Erfahrung mit 2008R2 Administration und ich habe schon mit 2012R2 und 2012R2HyperV-Server gearbeitet, aber da wir eine neue AD aufziehen sollen (wird nix migriert -> alles neu /Ausnahme Daten auf FS -> Berechtigungen werden auch alle neu gemacht), war die Frage was wir am besten machen und hier wollte ich von euch Tipps in unsere Planung einfließen lassen. Es ginge nicht um "keine Ahnung" wie jetzt shiversc schrieb. Es ging darum was würdet Ihr machen, wie würdet Ihr es aufziehen usw. Lohnt sich VM oder nicht. Uns ist klar, dass man den PDC auf Blech laufen lässt und wenn man möchte den BDC auf VM. Wir wollten eure Erfahrungen und Wissen in unsere Planung einbeziehen.
Bezüglich Netzwerk, die Frage ist bei uns obsolet, das macht eine andere Abteilung die sparen nicht *grins*. Juniper ist Standard, wenn wir was brauchen müssen wir nur anfordern. Gigabit to the desk auch Standard.
Unsere Planung war 7 - 9 Server einzusetzen, beide Fileserver sollten auf Blech laufen. Dinge wie zweiter DNS und zweiter DHCP waren wir der Überlegung ob wir diese als VM umsetzten. und DC bekäme dann zusätzlich die HyperV Rolle zum Managen der HyperV-Server installiert. Laut MSC Trainer kann man alles auf HyperV-Server packen. Mein Kollege und ich sehen das anders.Es ist interessant wie die Meinungen auseinander gehen, ein Freund macht alles bis auf DC als VM und er hat keine Probleme, gut der sieht auch 256GB RAM ECC als Standard für JEDEN Blech an :-). Er hat keine Probleme bis jetzt und wenn was ist dann gibt’s sowas wie Heartbeat und der andere DC macht das rennen. Ich kenne ein anderes BSP da hatte man auch sehr viel auf VM gepackt und das hatte zur Folge das man morgens zum Anmelden 15 min gebraucht hatte wenn mehr als 10 Leute gerade sich einloggen.
@ shiversc
Ob Ahnung oder keine Ahnung, ein Forum ist ein Ort wo man Hilfe und auch Ahnung vermittelt bekommen sollte. Vorallem „daher muss ich leider feststellen und mitteilen, dass ihr keine Ahnung habt und euch dringend raten es sein zu lassen.“. Leute wie Sie werden gerne Döddel bezeichnet. Ich finde es super dass Sie uns helfen und Ihre Vorstellung der Hardware und Rollen schön gliedern, aber muss dann solch ein Absatz am Ende Ihres Beitrags dann noch sein? Sympathie gewinnen Sie damit aber nicht. Jeder hier hat klein angefangen und man sollte Leute ermutigen, vll. in Ihrem gewonnen Eindruck von uns erstmal uns zu mehr Tiefgang in der Materie anhalten, aber nicht vom Kurs abbringen oder gar die Route streichen.
P.S. wir kalkulieren mit 30T€ zur Zeit.
#9
geschrieben 04. Juni 2015 - 15:51
Zitat (Vio: 04. Juni 2015 - 11:57)
Das stimm SO nicht.
Zitat (Vio: 04. Juni 2015 - 11:57)
Das sind beides nutzlose Aussagen. Gigabit am desk macht oft keinen Sinn, es ist einfach nur schön günstig. Juniper muss man bedienen können. Ich finde Cisco ist einfacher zu managen.
Zitat (Vio: 04. Juni 2015 - 11:57)
Zitat (Vio: 04. Juni 2015 - 11:57)
Ob Ahnung oder keine Ahnung, ein Forum ist ein Ort wo man Hilfe und auch Ahnung vermittelt bekommen sollte. Vorallem „daher muss ich leider feststellen und mitteilen, dass ihr keine Ahnung habt und euch dringend raten es sein zu lassen.“. Leute wie Sie werden gerne Döddel bezeichnet. Ich finde es super dass Sie uns helfen und Ihre Vorstellung der Hardware und Rollen schön gliedern, aber muss dann solch ein Absatz am Ende Ihres Beitrags dann noch sein? Sympathie gewinnen Sie damit aber nicht. Jeder hier hat klein angefangen und man sollte Leute ermutigen, vll. in Ihrem gewonnen Eindruck von uns erstmal uns zu mehr Tiefgang in der Materie anhalten, aber nicht vom Kurs abbringen oder gar die Route streichen.
P.S. wir kalkulieren mit 30T€ zur Zeit.
Bei 150-200 User, gehe ich von einem mittelständigen Unternehmen aus, dass sehr auf seine IT angewiesen ist. Lernen soll jeder, keine Frage, aber das hört sich nach einen Experiment für die ITler an.
Für eine Virtualisierung ist das was ihr macht, bzw. machen wollt oder sollt zu klein, weil ein SAN, was seinen Namen verdient, kostet Geld. Die Anschaffung für das SAN und deren Unterhaltung steht in keinen günstigen Verhältnis zu der Gesamtanschaffungssumme. Außerdem MUSS man von SAN Ahnung haben. Egal ob ich mit Juniper, Brocade oder was auch immer um mich werfe, hier muss man Wissen was ich mache, dabei kann kein Lernprozess stattfinden wie der hier umworben wird. Da MÜSSEN mehr wie die Basics sitzen. Alles andere ist völlig unrealistisch und verdient den Rat zu Recht, dass es unterbleiben soll.
Der Chef der Firma verdient eine hinreichende Beratung wenn er so vielen Leuten Arbeit und Einkommen beschert. Das muss man auch mit seiner Eitelkeit klar kommen und einsehen, dass man kleinere Brötchen backen muss.
#10
geschrieben 05. Juni 2015 - 08:48
Zitat
Backupserver sollte man auch auf Blech machen denn sonst bekommt man bei manchen Herstellern nicht undedingt bei allem Hilfe und gerade Bandlaufwerk an ne VM durchzuschleifen läuft nicht immer Problemlos (es geht aber) Wenn ihr nur Backup to Disk macht evtl. mit Deduplication (frisst halt auch RAM und CPU) dann kann man den Virtualisieren aber ich für meinen Teil schreib lieber alles auf Disk und dann noch auf Tape
Wie gesagt ihr solltet euch mal überlegen wie ihr bei 200 User gescheit die Daten sichert!
Mailserver habt ihr keinen??
Zitat
Nochmal die Managmentsoftware für HyperV kostet ab 2012 ca 6000€ für 2008 war/ist die kostenlos
Und man sollte immer min 2 DC´s haben und einer davon Blech wir haben 10 Dc´s einer Blech der Rest verteilt in diversen Subnetzen als VM
Dieser Beitrag wurde von dale bearbeitet: 05. Juni 2015 - 09:19
#11
geschrieben 05. Juni 2015 - 09:14
Ansonsten... hätte ich nicht gedacht, daß ich das mal tun würde aber, ich muß shiversc zustimmen. Insbesondere, wenn ich da überall nochmal drüber lese. BDC? Gibt's seit NT4 nicht mehr. Heartbeat? Doch nicht bei Domaincontrollern. Und ich hoffe mal, daß nicht vorgesehen ist, nach Microsoft's MCSA/MCSE Lehrbüchern vorzugehen.
Jemanden mit möglichst viel Ahnung hinzuziehen, den ggf ein NDA unterschreiben lassen und das gemeinsam machen. Dann los. Sonst gibt's am Ende irgendwas Hingehustetes und binnen 10 Tagen ist die Firma pleite, weil 60% der Infrastruktur erkennbar und 30% der Infrastruktur *nicht* erkennbar fehlerhaft oder gleich ganz gar nicht funktionieren.
Wie bereits geschrieben: Lernen ist gut und schön und ich unterstütze das auch -soweit möglich- gerne. Nur ist hier "Lernen" fehlplaziert. Das muß gekonnt geplant werden, gekonnt implementiert und später auch gekonnt gewartet werden; in einem produktiven Kontext ist da kein Platz für learning-by-doing oder gar "wird schon klappen".
#12
geschrieben 08. Juni 2015 - 19:24
Zitat (dale: 05. Juni 2015 - 08:48)
Was bringt das?
#13
geschrieben 09. Juni 2015 - 07:11
Zitat
Jupp optimal sind 3 Kopien 1 auf Band 2 mal Disk wo es was bringt halt auch Dedup allerdings kommt das immer auf die Daten an!
Übergens Dc´s in den in diversen Subnets bringt dann was wenn die per Datenleitung angebunden sind und evtl. die Leitung ausfällt und alles außer Mailserver vor Ort liegt wie Home Laufwerk usw...
Dieser Beitrag wurde von dale bearbeitet: 09. Juni 2015 - 07:12
#14
geschrieben 09. Juni 2015 - 07:39
Dann lieber mehr Plattenplatz. Dedup sollte man sich -meines Erachtens - schon ganz allgein gut überlegen, ob es nicht ressourcenschonendere Alternativen gibt; wenn es aber um Sicherungen geht, würde ich da schon ganz pauschal auf alles verzichten wollen, was Redundanz *vermindert*.
#15
geschrieben 09. Juni 2015 - 11:50
Dedup(wie gesagt kommt auf die Daten an Photos usw. sind extrem ungünstig für Dedup Text Dokumente bringen da schon 80%-90%) und
BtoDisk helfen ja nur das man was schneller wiederherstellen, kann als von Band.
Man kan sich mit Dedup schon einiges sparen wenn man das gleich Hardware koppelt hat man schon ein schönes Puffer für 30 Tage da gibts fertige Appliances von verschieden Herstellern die direkte Schnittstellen zu den Enterprise Backupanwendungen haben.
- ← Ports/Anwendungen ein-/ausgehend freigeschaltet - trotzdem nicht errei
- Windows Server 2012 R2 & Server 2012
- REmote Desktop Login: wie viele user gleichzeitig? →