ausfallsichere Server in der eigenen Praxis
Moderator: Forum Moderatoren
- EXEWERKER
- Beiträge: 807
- Registriert: Freitag 12. Februar 2010, 12:43
- 14
- Wohnort: Leipzig
- Hat sich bedankt: 1 time
- Bedankt: 3 times
ausfallsichere Server in der eigenen Praxis
Was bisher nur in der Cloud möglich war: Ausfallsichere Server mit verteiltem Dateisystem. Gemessen am Nutzen zum wirklich kleinen Preis: http://turbomed-partner.net/hardware/se ... ecure.html
System besteht aus 3 (lautlosen) Servern, die in der Praxis (z.B. in verschiedenen Brandabschnitten verteilt werden können. Der Datenstand ist in Echtzeit identisch. System ist auch in einer 10G Variante erhältlich: http://turbomed-partner.net/hardware/se ... ure-1.html (3 Jahre Garantie inkl. Support)
System besteht aus 3 (lautlosen) Servern, die in der Praxis (z.B. in verschiedenen Brandabschnitten verteilt werden können. Der Datenstand ist in Echtzeit identisch. System ist auch in einer 10G Variante erhältlich: http://turbomed-partner.net/hardware/se ... ure-1.html (3 Jahre Garantie inkl. Support)
EX EWERKER
Re: ausfallsichere Server in der eigenen Praxis
Da in der Produktbeschreibung in guter alter Ewerk-Tradition wieder mal nix handfestes technisches steht, anhand dessen sich die Tauglichkeit der Lösung grob abschätzen liesse, bleiben natürlich ein paar Fragen:
1. Warum 3 Kisten? Failover Clustering ohne "shared storage" sollte prinzipiell auch mit 2 Maschinen zu machen sein.
2. "Lautlos" und "XEON"-> heisst wohl passiv gekühlt und lässt auf den Einsatz einer L-(Stromspar)-Version schließen. Also wird die Geschichte wohl heher weniger für das Einsatzszenario "Terminalserver" geeignet sein.
3. 2 (von 3TB) nutzbare Speicherkapazität -> Ist das jetzt so 'ne Art Netzwerk-Raid5 oder ist die dritte Maschine mehr oder weniger doch der "shared storage"?
4. Was zur Hölle ist so schwer daran, in der "Artikeltbeschreibung" mal statt 'nem ellenlangen Werbetext einfach die technischen Specs von Hard-und Software zu nennen?
Man stelle sich das mal im Katalog eines Autoherstellers vor: "Hat vier Räder und fährt viel besser als andere. Motor ham wer auch. Natürlich den tollsten."
1. Warum 3 Kisten? Failover Clustering ohne "shared storage" sollte prinzipiell auch mit 2 Maschinen zu machen sein.
2. "Lautlos" und "XEON"-> heisst wohl passiv gekühlt und lässt auf den Einsatz einer L-(Stromspar)-Version schließen. Also wird die Geschichte wohl heher weniger für das Einsatzszenario "Terminalserver" geeignet sein.
3. 2 (von 3TB) nutzbare Speicherkapazität -> Ist das jetzt so 'ne Art Netzwerk-Raid5 oder ist die dritte Maschine mehr oder weniger doch der "shared storage"?
4. Was zur Hölle ist so schwer daran, in der "Artikeltbeschreibung" mal statt 'nem ellenlangen Werbetext einfach die technischen Specs von Hard-und Software zu nennen?
Man stelle sich das mal im Katalog eines Autoherstellers vor: "Hat vier Räder und fährt viel besser als andere. Motor ham wer auch. Natürlich den tollsten."
Re: ausfallsichere Server in der eigenen Praxis
Das ist doch nix für eine Einzelpraxis und auch nix für PGM mit 2 Ärzten, bestenfalls für ich weiss nicht wieviel Ärzte.
Wenn die 10k Euro Teile in der Praxis stehen, fackeln die, saufen die ab oder werden geklaut oder per Software gelockt.
Da werden Ärzte gemolken, mit dem Thema Angst.
Da bau ich mir doch eine Virtuelle 2. Praxis zu Hause auf und lass die Server sich gegenseitig updaten per VPN.
Wenn Ärzte dafür Geld ausgeben, haben die von der KV zuviel Geld bekommen.
sorry
moose
Wenn die 10k Euro Teile in der Praxis stehen, fackeln die, saufen die ab oder werden geklaut oder per Software gelockt.
Da werden Ärzte gemolken, mit dem Thema Angst.
Da bau ich mir doch eine Virtuelle 2. Praxis zu Hause auf und lass die Server sich gegenseitig updaten per VPN.
Wenn Ärzte dafür Geld ausgeben, haben die von der KV zuviel Geld bekommen.
sorry
moose
- EXEWERKER
- Beiträge: 807
- Registriert: Freitag 12. Februar 2010, 12:43
- 14
- Wohnort: Leipzig
- Hat sich bedankt: 1 time
- Bedankt: 3 times
Re: ausfallsichere Server in der eigenen Praxis
->In >20 Jahren haben wir schon einige Tausend Server gebaut und auch in dieser Erfahrung steckt unser USP. Was nützt es, die genaue Spezifikation ins Netz zu stellen? Ein Gesamtsystem ist mehr als die Summe seiner technischen Einzelteile.
Ich habe diese HA-Clusterlösung auch nur der Vollständigkeit verlinkt, weil wir sie gerade neu als HCI (hyperconverged infrasturcture) aufgelegt haben.
->Die Zielgruppe für ein fehlertolerantes System ist sicherlich nicht der gelegentliche "Hobbyadministrator" einer Arztpraxis. Es ist klar, dass ein "normale" Praxis keine wirklich hochverfügbaren Systeme braucht. Aber schon ein kleines Ärztehaus, ein MVZ, eine Radiologie, ein Labor, eine Großpraxis oder eine Notaufnahme sollten mindestens so etwas haben. Haben sie meist auch. Hat also wenig mit "melken" zu tun. Professionelle HCI Lösungen kosten i.d.R. >30k, auch von Ärzten wollen die Anbieter nicht weniger verlangen
->Im Gegenteil 10k ist eher ein Schnäppchen in diesem Bereich. Wir betreuen eine Praxis mit 6 Außenstellen und 20 Ärzten, dort kostet ein halber Tag Ausfall mehr als die Anschaffung einer "sicheren Lösung". Ich kenne allerdings auch TM-Partner und Wald- und Wiesenhändler, die für 10k einen einzigen Server mit furchtbar viel RAM und tollem Raid und Raketenprozessoren liefern. Wäre der Server auch wert, ist aber völlig sinnfrei, denn es wird damit weder schneller noch sicherer.
->Lautlos ist das System dadurch, dass das Gehäuse der übergroße Kühllkörper für die CPU ist.
->Warum 3 Systeme? Für ein 2 HA-System benötigt man ein externes Quorum, ansonsten arbeitet man ggf. auf 2 Versionen der gleichen Datenbank, wenn eine Unterbrechung stattfindet. Das liegt an der Split-Brain Problematik: http://www.ip-insider.de/kampf-dem-spli ... n-a-69379/ Das kann man auch mit 2 Nodes (Servern) lösen, aber nicht wirklich gut, inzwischen macht das kaum einer mehr. Daher nutzen wir immer mehr die 3-Knoten-Lösung.
Ich habe diese HA-Clusterlösung auch nur der Vollständigkeit verlinkt, weil wir sie gerade neu als HCI (hyperconverged infrasturcture) aufgelegt haben.
->Die Zielgruppe für ein fehlertolerantes System ist sicherlich nicht der gelegentliche "Hobbyadministrator" einer Arztpraxis. Es ist klar, dass ein "normale" Praxis keine wirklich hochverfügbaren Systeme braucht. Aber schon ein kleines Ärztehaus, ein MVZ, eine Radiologie, ein Labor, eine Großpraxis oder eine Notaufnahme sollten mindestens so etwas haben. Haben sie meist auch. Hat also wenig mit "melken" zu tun. Professionelle HCI Lösungen kosten i.d.R. >30k, auch von Ärzten wollen die Anbieter nicht weniger verlangen
->Im Gegenteil 10k ist eher ein Schnäppchen in diesem Bereich. Wir betreuen eine Praxis mit 6 Außenstellen und 20 Ärzten, dort kostet ein halber Tag Ausfall mehr als die Anschaffung einer "sicheren Lösung". Ich kenne allerdings auch TM-Partner und Wald- und Wiesenhändler, die für 10k einen einzigen Server mit furchtbar viel RAM und tollem Raid und Raketenprozessoren liefern. Wäre der Server auch wert, ist aber völlig sinnfrei, denn es wird damit weder schneller noch sicherer.
->Lautlos ist das System dadurch, dass das Gehäuse der übergroße Kühllkörper für die CPU ist.
->Warum 3 Systeme? Für ein 2 HA-System benötigt man ein externes Quorum, ansonsten arbeitet man ggf. auf 2 Versionen der gleichen Datenbank, wenn eine Unterbrechung stattfindet. Das liegt an der Split-Brain Problematik: http://www.ip-insider.de/kampf-dem-spli ... n-a-69379/ Das kann man auch mit 2 Nodes (Servern) lösen, aber nicht wirklich gut, inzwischen macht das kaum einer mehr. Daher nutzen wir immer mehr die 3-Knoten-Lösung.
EX EWERKER
Re: ausfallsichere Server in der eigenen Praxis
Dieses Setting ist allerdings ein Argument für einen solchen Aufwand. Allerdings wird man da sicher auch eine externe Speicherlösung haben müssen :thumbup:Wir betreuen eine Praxis mit 6 Außenstellen und 20 Ärzten, dort kostet ein halber Tag Ausfall mehr als die Anschaffung einer "sicheren Lösung".
moose
- EXEWERKER
- Beiträge: 807
- Registriert: Freitag 12. Februar 2010, 12:43
- 14
- Wohnort: Leipzig
- Hat sich bedankt: 1 time
- Bedankt: 3 times
Re: ausfallsichere Server in der eigenen Praxis
Die Lösung garantiert die Verfügbarkeit, egal welches Teil der Gesamtlösung ausfällt. Ein Backup sollte man trotzdem haben, wird alle 15 Minuten zusätzlich erstellt und extern gelagert.moose hat geschrieben:Allerdings wird man da sicher auch eine externe Speicherlösung haben müssen :thumbup:
moose
EX EWERKER
Re: ausfallsichere Server in der eigenen Praxis
Wie oben von McLeod schon bemängelt, fehlen mir da auch die "harten Fakten" nur toll und ganz schnell ist mir da zu wenig. Mind. mal eine Info zum Betriebssystem, ca. Hardware, etc. dass man eine Abschätzung machen kann, ob man das Ding auch für was anderes nutzen kann - zB Terminalserver. Da stellt sich dann auch gleich die Frage, ob die Verfügbarkeit dann auch diese Anwendungen umfasst - oder eben nur TM. Kann man das System selbst warten, oder ist alles so "magic", dass man dann EW dazu braucht. Alle bekannten großen Hersteller liefern eigentlich sehr detaillierte Infos zu ihren Systemen - so gesehen hinkt das "könnte ja Jemand nachbauen"-Argument - es sei denn die Lösung wäre so trivial.
Schwank ab Rande: mich irritieren etwas Bewertungen glücklicher Kunden, die um Jahre älter sind (die Bewertung, nicht die Kunden), als es das System überhaupt gibt...
Jedenfalls schade, dass man so nicht abschätzen kann ob das System für uns resp. unsere Kunden interessant wäre.
Hab neulich (weg. Sichtung einer alten Sicherung) mal TM auf einem 2012 R2 aufgesetzt mit nur 8 GB RAM + 2 Cores (produktiv würde man hier natürlich entspr. mehr nehmen).
Server startet von 0 auf Login in <5 sec. TM schnell wie ... naja eben schnell. Alle Fenster / Pat. Suche sofort da (gefühlt < 1 sec.).
Muss sagen war selbst überrascht
Schwank ab Rande: mich irritieren etwas Bewertungen glücklicher Kunden, die um Jahre älter sind (die Bewertung, nicht die Kunden), als es das System überhaupt gibt...
Jedenfalls schade, dass man so nicht abschätzen kann ob das System für uns resp. unsere Kunden interessant wäre.
Hab neulich (weg. Sichtung einer alten Sicherung) mal TM auf einem 2012 R2 aufgesetzt mit nur 8 GB RAM + 2 Cores (produktiv würde man hier natürlich entspr. mehr nehmen).
Server startet von 0 auf Login in <5 sec. TM schnell wie ... naja eben schnell. Alle Fenster / Pat. Suche sofort da (gefühlt < 1 sec.).
Muss sagen war selbst überrascht
Re: ausfallsichere Server in der eigenen Praxis
@nmndoc
Aaaalso. Auf dem Produktbild sieht man ein Plato X(6)-Gehäuse von Akasa. Hierbei handelt es sich um ein fanless Gehäuse für UCFF-Boards (Intel NUC). Allerdings wäre mir kein UCFF-Board mit XEON bekannt...aber vielleicht ist ja gerade das so unheimlich "magic" und das große Betriebsgeheimnis: wie man einen XEON mit 'nem Hämmerchen auf ein NUC-Board klöppelt...
Ansonsten gibt's ja am Zusammenstöpseln von fertig zugelieferten Hardwarekomponenten nicht viel Geheimnisvolles, auch wenn manch anderer das als "unique selling point" betrachten mag.
Wie auch immer: Die TDP der i7-CPUs auf den NUC-Dingerchen liegt bei rund 30 Watt. D.h. selbst wenn ich dem Akasa-Kühler noch einiges an Reserve zugestehe, wird's für 'nen "echten Xeon" (z.B. E3 mit 4C/8T) nicht wirklich reichen. Damit dürfte sich auch das Thema Terminalserverbetrieb (zumindest mit mehr als einer Handvoll Clients) weitestgehend erledigt haben.
Softwareseitig kann man natürlich (mangels Specs) nur wild spekulieren, aber es wird sich wohl um einen virtuellen Windows Server 2012/2016 auf einer Lösung ähnlich oder gleich Nutanix CE handeln. Keine Ahnung, ob Simplivity und Co. eine ähnliche low/no-budget-Lösung anbieten, dazu hat mich das Thema bisher nicht ausreichend betroffen. Eine reine MS-Lösung scheidet allerdings hier IMHO grundsätzlich aus, da die hiefür notwendigen Technologien nur im 2016 Datacenter enthalten sind, was den Preispunkt wohl sprengen würde.
Aber hey, wir werden es nie erfahren, außer wir kaufen das Zeug. (Dumm nur, da0 ich nie etwas kaufe/empfehle/verwende, von dem ich nicht weiß, was eigentlich drinnen steckt...)
Und was die Geschwindigkeit der "Recovery-Umgebung" angeht: Kein Wunder. Es ist halt einfach so: Die besch... Pseudo-DB von LahmoMed taugt einfach nicht wirklch für den Zugriff über Netzwerk (1 bzw. 10GBit lindern hier allenfalls die Symptome, beseitigen aber nicht das grundsätzliche Problem), lokaler Zugriff ist im Zweifel immer erkennbar schneller. =>In dubio pro Terminalserver.
Aaaalso. Auf dem Produktbild sieht man ein Plato X(6)-Gehäuse von Akasa. Hierbei handelt es sich um ein fanless Gehäuse für UCFF-Boards (Intel NUC). Allerdings wäre mir kein UCFF-Board mit XEON bekannt...aber vielleicht ist ja gerade das so unheimlich "magic" und das große Betriebsgeheimnis: wie man einen XEON mit 'nem Hämmerchen auf ein NUC-Board klöppelt...
Ansonsten gibt's ja am Zusammenstöpseln von fertig zugelieferten Hardwarekomponenten nicht viel Geheimnisvolles, auch wenn manch anderer das als "unique selling point" betrachten mag.
Wie auch immer: Die TDP der i7-CPUs auf den NUC-Dingerchen liegt bei rund 30 Watt. D.h. selbst wenn ich dem Akasa-Kühler noch einiges an Reserve zugestehe, wird's für 'nen "echten Xeon" (z.B. E3 mit 4C/8T) nicht wirklich reichen. Damit dürfte sich auch das Thema Terminalserverbetrieb (zumindest mit mehr als einer Handvoll Clients) weitestgehend erledigt haben.
Softwareseitig kann man natürlich (mangels Specs) nur wild spekulieren, aber es wird sich wohl um einen virtuellen Windows Server 2012/2016 auf einer Lösung ähnlich oder gleich Nutanix CE handeln. Keine Ahnung, ob Simplivity und Co. eine ähnliche low/no-budget-Lösung anbieten, dazu hat mich das Thema bisher nicht ausreichend betroffen. Eine reine MS-Lösung scheidet allerdings hier IMHO grundsätzlich aus, da die hiefür notwendigen Technologien nur im 2016 Datacenter enthalten sind, was den Preispunkt wohl sprengen würde.
Aber hey, wir werden es nie erfahren, außer wir kaufen das Zeug. (Dumm nur, da0 ich nie etwas kaufe/empfehle/verwende, von dem ich nicht weiß, was eigentlich drinnen steckt...)
Und was die Geschwindigkeit der "Recovery-Umgebung" angeht: Kein Wunder. Es ist halt einfach so: Die besch... Pseudo-DB von LahmoMed taugt einfach nicht wirklch für den Zugriff über Netzwerk (1 bzw. 10GBit lindern hier allenfalls die Symptome, beseitigen aber nicht das grundsätzliche Problem), lokaler Zugriff ist im Zweifel immer erkennbar schneller. =>In dubio pro Terminalserver.
Re: ausfallsichere Server in der eigenen Praxis
ah, danke für den Hinweis (Nutanix). War mal eben auf der Seite: erster Eindruck - viel bunt und auf den ersten Blick nicht so leicht zu erkennen, was die Lösung machtMcLeod hat geschrieben: Softwareseitig kann man natürlich (mangels Specs) nur wild spekulieren, aber es wird sich wohl um einen virtuellen Windows Server 2012/2016 auf einer Lösung ähnlich oder gleich Nutanix CE handeln. Keine Ahnung, ob Simplivity und Co. eine ähnliche low/no-budget-Lösung anbieten, dazu hat mich das Thema bisher nicht ausreichend betroffen. Eine reine MS-Lösung scheidet allerdings hier IMHO grundsätzlich aus, da die hiefür notwendigen Technologien nur im 2016 Datacenter enthalten sind, was den Preispunkt wohl sprengen würde.
ABER evtl ist ja das hier interessant:
"How to setup a tree node cluster":
http://next.nutanix.com/t5/Nutanix-Conn ... ba-p/15257
Re: ausfallsichere Server in der eigenen Praxis
noch ein Nachtrag zum generellen Thema "TurboMed hochverfügbar" keine/geringe Ausfallzeiten: m.E. ist die Hauptausfallzeit ohnehin die, während des Updates - inkl. DB-Aktualisierung. Das Problem wird ja das Cluster wohl auch nicht lösen!? D.h. die größte Verbesserung wäre ein Update während gearbeitet wird (so ähnlich wie Citrix-Farm > Schwenk auf einen anderen Server, dann zurück).
- EXEWERKER
- Beiträge: 807
- Registriert: Freitag 12. Februar 2010, 12:43
- 14
- Wohnort: Leipzig
- Hat sich bedankt: 1 time
- Bedankt: 3 times
Re: ausfallsichere Server in der eigenen Praxis
Ist ja heute wieder wie bei "Jugend forscht"
In einem MVZ mit 6 Standorten macht es schon Sinn, zunächst den DB Server zu updaten was ca. 2h bei 200k Patienten dauert. Dann schwenkt man die Terminals hin und her und updatet diese ganz in Ruhe, im laufenden Betrieb.
Auch eine Replikation nicht nur der DB, sondern der kompletten VM jede Stunde (oder in Echtzeit) in die einzelnen Standorte schafft eine lokale Notfallumgebung, wenn Leitungen ausfallen etc. So etwas kann man mit Nutanix machen.
Und nein: Es ist nicht Nutanix (obwohl wir das für Industriekunden machen, die CE darf man nicht so einfach verwenden, "kleine" Lösungen gehen bei 30k los, wird übrigens auch anstandslos bezahlt.). Aber das Prinzip ist auch so.
In einem MVZ mit 6 Standorten macht es schon Sinn, zunächst den DB Server zu updaten was ca. 2h bei 200k Patienten dauert. Dann schwenkt man die Terminals hin und her und updatet diese ganz in Ruhe, im laufenden Betrieb.
Auch eine Replikation nicht nur der DB, sondern der kompletten VM jede Stunde (oder in Echtzeit) in die einzelnen Standorte schafft eine lokale Notfallumgebung, wenn Leitungen ausfallen etc. So etwas kann man mit Nutanix machen.
Und nein: Es ist nicht Nutanix (obwohl wir das für Industriekunden machen, die CE darf man nicht so einfach verwenden, "kleine" Lösungen gehen bei 30k los, wird übrigens auch anstandslos bezahlt.). Aber das Prinzip ist auch so.
EX EWERKER
Re: ausfallsichere Server in der eigenen Praxis
aber die 2h Stillstand habe ich ja auf jeden Fall? + mind. 1x Terminalserver (falls nicht = DB-Server)?EWERKER hat geschrieben: In einem MVZ mit 6 Standorten macht es schon Sinn, zunächst den DB Server zu updaten was ca. 2h bei 200k Patienten dauert. Dann schwenkt man die Terminals hin und her und updatet diese ganz in Ruhe, im laufenden Betrieb.
Auch eine Replikation nicht nur der DB, sondern der kompletten VM jede Stunde (oder in Echtzeit) in die einzelnen Standorte schafft eine lokale Notfallumgebung, wenn Leitungen ausfallen etc. So etwas kann man mit Nutanix machen
Bei einer "vernünftigen" Lösung sollte sich die DB doch auch im laufenden Betrieb (=während darauf gearbeitet wird) updaten lassen ...? Gerade bei Kunden, die so viel Geld für eine HA-Lösung zahlen, sehe ich nicht, wo man da mal eben 2h alle in die Pause schickt?
- EXEWERKER
- Beiträge: 807
- Registriert: Freitag 12. Februar 2010, 12:43
- 14
- Wohnort: Leipzig
- Hat sich bedankt: 1 time
- Bedankt: 3 times
Re: ausfallsichere Server in der eigenen Praxis
Das stimmt, aber es gibt überhaupt kein System am Markt, welches ohne "Wartungsfenster" die Software wechselt. Insofern ist dies eine Scheindebatte. Das hat mit HA gar nichts zu tun, andere Baustelle.
EX EWERKER
Re: ausfallsichere Server in der eigenen Praxis
war nicht auf Ihre Lösung bezogen, sonderm auf TM - dass es hier an einer entspr. Funktionalität mangelt. Grundsätzlich gibt es solche Systeme aber schon (ebenfalls inkl. DB) - eben auch als Cluster - die gleichen sich dann eben erst wieder ab, wenn die einzelnen Knoten den gleichen Softwarestand haben.EWERKER hat geschrieben:Das stimmt, aber es gibt überhaupt kein System am Markt, welches ohne "Wartungsfenster" die Software wechselt. Insofern ist dies eine Scheindebatte. Das hat mit HA gar nichts zu tun, andere Baustelle.
Re: ausfallsichere Server in der eigenen Praxis
(... mangelnde Editiermöglichkeit ...)
Und wenn es mir um die Ausfallsicherheit geht, kann ich das auch mit 1st, 2nd Server machen - 1st repliziert auf 2nd und ich kann wenn nötig einfach (automatisch) auf den Ersatzserver schwenken. Hab dann aber im Budget nicht nur TM drin, sondern auch Terminalserver etc. Mit Virtualisierung bin ich dann sogar noch super flexibel wenn ich in 3+ Jahren evtl. die Hardware (zB Plattenplatz) aufrüsten oder komplett tauschen will - einfach die VM auf der neuen HW starten und fertig. Ich vermute mal stark dass im o.g. Beispiel 3x neue HW fällig ist (+ ein "echter" Umzug des Systems).
nmndoc hat geschrieben:aber die 2h Stillstand habe ich ja auf jeden Fall? + mind. 1x Terminalserver (falls nicht = DB-Server)?EWERKER hat geschrieben: In einem MVZ mit 6 Standorten macht es schon Sinn, zunächst den DB Server zu updaten was ca. 2h bei 200k Patienten dauert. Dann schwenkt man die Terminals hin und her und updatet diese ganz in Ruhe, im laufenden Betrieb.
Auch eine Replikation nicht nur der DB, sondern der kompletten VM jede Stunde (oder in Echtzeit) in die einzelnen Standorte schafft eine lokale Notfallumgebung, wenn Leitungen ausfallen etc. So etwas kann man mit Nutanix machen
Bei einer "vernünftigen" Lösung sollte sich die DB doch auch im laufenden Betrieb (=während darauf gearbeitet wird) updaten lassen ...? Gerade bei Kunden, die so viel Geld für eine HA-Lösung zahlen, sehe ich nicht, wo man da mal eben 2h alle in die Pause schickt?
Aber genau dann sehe ich nicht den Nutzen bzw. den Mehrwert o.g. Systems nicht. Bei uns ist die einzige Stillstandszeit die, wenn TM hakt oder ein Update fällig ist. Zumindes ein Standort v. 8 hat parktisch 24x7 offen - aber auch da ist es machbar - mal nachts am WE für 1h eine Pause einzulegen - theoretisch 4x im Jahr...EWERKER hat geschrieben: das stimmt...
Und wenn es mir um die Ausfallsicherheit geht, kann ich das auch mit 1st, 2nd Server machen - 1st repliziert auf 2nd und ich kann wenn nötig einfach (automatisch) auf den Ersatzserver schwenken. Hab dann aber im Budget nicht nur TM drin, sondern auch Terminalserver etc. Mit Virtualisierung bin ich dann sogar noch super flexibel wenn ich in 3+ Jahren evtl. die Hardware (zB Plattenplatz) aufrüsten oder komplett tauschen will - einfach die VM auf der neuen HW starten und fertig. Ich vermute mal stark dass im o.g. Beispiel 3x neue HW fällig ist (+ ein "echter" Umzug des Systems).
- EXEWERKER
- Beiträge: 807
- Registriert: Freitag 12. Februar 2010, 12:43
- 14
- Wohnort: Leipzig
- Hat sich bedankt: 1 time
- Bedankt: 3 times
Re: ausfallsichere Server in der eigenen Praxis
Ich würde gern darauf verzichten, den Sinn und Zweck von Hochverfügbarkeit zu erklären, ich dachte dies sei unter IT-lern usus. Eine Hochverfügbakeit (genauer eine AEC-3 / AEC-4) ist ja auch nur die "mittlere Variante" der Availability Environment Classification. Was Sie fordern, ist eine Disastertoleranz, dies können sich einige militärische Einrichtungen leisten, der Arzt jedoch nicht. Ich habe auch nie behauptet, dass diese Lösung für den Hausarzt um die Ecke ist. Wenn sich der Sinn Ihnen nicht erschließt, dann werde ich dies wohl nicht ändern.
Erklären Sie ihr vorgenanntes Procedere mal einen Normaluser, und virtualisieren Sie und schwenken sie und spiegeln Sie, das mag zwar für Sie die Existenzberechtigung sein. Unsere Lösung macht dies alles ohne jeglichen Handgriff und ohne jegliches Verstehen. Und Sie müssen sie ja auch nicht kaufen.
Erklären Sie ihr vorgenanntes Procedere mal einen Normaluser, und virtualisieren Sie und schwenken sie und spiegeln Sie, das mag zwar für Sie die Existenzberechtigung sein. Unsere Lösung macht dies alles ohne jeglichen Handgriff und ohne jegliches Verstehen. Und Sie müssen sie ja auch nicht kaufen.
EX EWERKER
Re: ausfallsichere Server in der eigenen Praxis
Ich kenne Großpraxen über mehrere Standorte, da ist es essenziell, dass das System auch im Fehlerfall weiterhin verfügbar ist und dies ohne unmittelbaren menschlichen Eingriff 24/7, also Hochverfügbarkeit. Da darf man gar nicht merken, dass was nicht geht. Da sind auch Preise in 10 k Schritten kein Problem + angestellter I-teeler. Ich begnüge mich mit einem Notfallservermodul für ca. 400 Euro einmalig + Rechner 300 Euro + Monats Gebühr. Habs noch nie gebraucht. Auch könnte ich locker 4h Stillstand verschmerzen. Großpraxen können das aber nicht.
moose
moose
- EXEWERKER
- Beiträge: 807
- Registriert: Freitag 12. Februar 2010, 12:43
- 14
- Wohnort: Leipzig
- Hat sich bedankt: 1 time
- Bedankt: 3 times
Re: ausfallsichere Server in der eigenen Praxis
Danke!moose hat geschrieben:Da sind auch Preise in 10 k Schritten kein Problem + angestellter I-teeler.
moose
EX EWERKER
-
- Beiträge: 149
- Registriert: Samstag 3. Januar 2009, 16:55
- 15
- PVS: T2Med
- Konnektortyp: TIaaS (RED)
- Bedankt: 7 times
Ich hole das Thema HA-Cluster nochmal aus der Versenkung,
da man einen solchen ja durchaus selbst erstellen und warten kann, und das recht einfach.
Aber von Anfang an: aus einer Werbung von Medistar (wo auch immer die herkam) bin ich über deren Angebot eines 2-Maschinen-HA-Cluster gestolpert, und letzendlich bei Collax gelandet, die die Software dafür anbieten.
Grundlage dafür ist, 2 identische Maschinen, die auch von der Software unterstützt werden, vorzuhalten. Die Kompatibilität der Hardware ist essentiell, das es ein Hardwaremodul gibt, dass durch hartes Aussschalten eines Teilnehmers im Fall eines split-brain Szenarios für Ordnung sorgt.
Üblicherweise braucht es für so etwas 3 Teilnehmer, und dann ist auch das nicht wirklich sicher (stonith via Hardware aber schon, ist dann wirklich Schluß beim Schuß).
Nebeneffekt des ganzen ist, dass man sich über Festplattenpartitionierungen, RAID etc. keine Gedanken mehr machen muss, sondern einfach Festplattenspeicher (wo auch immer der liegt) zuordnet und da dann VM's drauflegt, die man dann auch wieder andernorts sichern oder migrieren kann. RAID wird nicht unterstützt, aber das ganze ist in sich ja schon ein RAID1.
Also das ganze Programm des Linux-KVM, und das einigermaßen graphisch übersichtlich aufbereitet.
Alternativ gibt es noch Proxmox, da geht auch RAID unter bestimmten Voraussetzungen je nach Dateisystem. Was alleinig fehlt ist der Hardware-Killer bei 2-Server-Variante (alternativ dann auf dem NAS den 3. Zeugen laufen lassen geht, kann aber auch nicht alle Fehlerkonstellationen abdecken).
Aber von Anfang an: aus einer Werbung von Medistar (wo auch immer die herkam) bin ich über deren Angebot eines 2-Maschinen-HA-Cluster gestolpert, und letzendlich bei Collax gelandet, die die Software dafür anbieten.
Grundlage dafür ist, 2 identische Maschinen, die auch von der Software unterstützt werden, vorzuhalten. Die Kompatibilität der Hardware ist essentiell, das es ein Hardwaremodul gibt, dass durch hartes Aussschalten eines Teilnehmers im Fall eines split-brain Szenarios für Ordnung sorgt.
Üblicherweise braucht es für so etwas 3 Teilnehmer, und dann ist auch das nicht wirklich sicher (stonith via Hardware aber schon, ist dann wirklich Schluß beim Schuß).
Nebeneffekt des ganzen ist, dass man sich über Festplattenpartitionierungen, RAID etc. keine Gedanken mehr machen muss, sondern einfach Festplattenspeicher (wo auch immer der liegt) zuordnet und da dann VM's drauflegt, die man dann auch wieder andernorts sichern oder migrieren kann. RAID wird nicht unterstützt, aber das ganze ist in sich ja schon ein RAID1.
Also das ganze Programm des Linux-KVM, und das einigermaßen graphisch übersichtlich aufbereitet.
Alternativ gibt es noch Proxmox, da geht auch RAID unter bestimmten Voraussetzungen je nach Dateisystem. Was alleinig fehlt ist der Hardware-Killer bei 2-Server-Variante (alternativ dann auf dem NAS den 3. Zeugen laufen lassen geht, kann aber auch nicht alle Fehlerkonstellationen abdecken).
Wer ist online?
Mitglieder in diesem Forum: Amazon [Bot] und 30 Gäste