Macros hat geschrieben:Moin,
danke für die ausführliche Antwort, auf ein paar Punkte möchte ich eingehen / fragen stellen...
Dann möchte ich auch genauso ausführlich auf Ihre Fragen eingehen
Macros hat geschrieben:
Verschiedene VMs oder wirklich das gleiche System?
Ich trenne meine Firewall lieber auf und habe dafür ein OpenWRT noch auf einem WRT54GL, aber die Performance reicht langsam aber sicher nicht mehr, mal sehen, was es wird... Ich dachte an eine dedizierte IPFire..
Es ist ein einzelnes System, ich bin nicht der Spezialist für VMs auch wenn ich mich gerne in die Matrie mal einarbeiten möchte. Da ich quasi als Einzelkämpfer aggiere muss ich leider immer schauen, wie ich meine Zeit am sinnvollsten einteile. Zur Unterstützung kann ich auf ein örtliches Systemhaus zurück greifen, die aber leider nur Windows machen und quasi auf mich als Linux Admin zurück greifen.
Macros hat geschrieben:
Hier bin ich anderer Meinung, sie (Softwarehersteller / TurboMed) beschäftigen sich nicht mit dem Rechtesystem, sondern empfehlen einfach, dass der normale Benutzer als "Administrator" arbeitet, daher haben sie natürlich keine Zugriffsprobleme, wäre so, als wenn Linux jeden als "root" annimmt.
Ok, hier hab ich mich nicht ganz klar ausgedrückt. Gerade dieses "der Benutzer arbeitet mit Admin Rechten" ist es was ich bemängel. Ich habe in meinen Jahren etliche Erfahrungen mit Datenverlust bei Firmen gemacht die durch eine konsequente Verwendung von Benutzerrechten zwar nicht vermeidbar waren, aber wenigstens hätten abgeschwächt werden können. Gut im Gedächtnis ist mir der Fall von ca. 3 TB durch Bitcrypt2 verschlüsselte Kundendaten, weil im mittleren Management die Netzlaufwerke mit Admin Rechten an die lokalen Clients gebunden waren, da sonst eine Software keinen Zugriff auf seine Datenbankdatei hatte.
Macros hat geschrieben:
Wäre wahrscheinlich aber auch nicht anders, als wenn man einen modernen Server unter einem Windows 2012R2 nimmt... Meine Messungen gestern geben einen leichten Performance Vorteil für die Windows Maschine bei absolut identischer Hardware / VM Kofiguration ...
Allerdings sind diese 20sek. im Praxisbetrieb zu vernachlässigen.
Ich habe einfach sowohl mit dem Linux Server als auch mit dem Windows Server eine leere PraxisDB erstellen lassen und die Zeit gestoppt.
Da ich selber mich nur mit dem IT System beschäftige und nicht mit der Software arbeite, ausser zu prüfen ob die Zugriffe auf die DB und die Dokumente nach einem Update noch funktionieren, verlasse ich mich hier auf die Aussagen der Praxisbelegschaft. Das Öffnen von Patienten, der Karteikarte oder der gescannten Dokumente fühlt sich schneller an, auch das Arbeiten im TM sowie die Batch Abwicklung von Scanvorgangen durch die Mitarbeiterinnen ist möglich, ohne dass das System anzeigt es würde auf etwas warten. Dieses ständige Warten im System, quasi die Sanduhr, war vorher, mit dem alten Windows Server, quasi der Normalzustand. Natürlich darf dabei auch nicht vergessen werden, dass die Neuinstallation sämtlicher Clients auch einen grossen Teil zur allgemeinen Performance beiträgt.
An sich mach ich solche pauschalen Aussagen nur ungern und ich hätte das hier auch sein lassen sollen. Die Arbeitsgeschwindigkeit hängt von zu vielen Faktoren ab.
Macros hat geschrieben:
Sehe ich, wie oben geschrieben anders, da bei Windows einfach immer alle Rechte vergeben werden, bis es läuft ... Bei Linux akzeptiert man, dass die Zugriffsrechte richtig gesetzt werden müssen. NTFS / Windows Freigaben können genauso granular aufgebaut werden, macht nur keiner, und schon mal gar nicht im kleinen Umfeld.
Da geb ich Ihnen vollkommen Recht, es macht keiner, dass er sich um Rechtevergabe kümmert. Ich bin in der Hinsicht ein gebranntes Kind, habe zu oft erlebt wie durch allgemeine Admin Rechte an jedem System, für jeden Nutzer im gesamten Netzwerk, Fehler und Datenverlust entstanden sind, die durch eine Einschränkung der Rechte vermeidbar gewesen wären. Ich als Admin mach mir lieber die Mühe vorab nur die Rechte zuzulassen die wirklich benötigt sind, als im Nachhinein mit Datenverlust bis hin ins Backup zurecht kommen zu müssen. Beide Wege haben Ihre Vor- und Nachteile. Bei einer Software wie TM bemängel ich einfach, dass prinzipiell alles als Admin/root laufen muss und der Hersteller sich keine Gedanken darüber macht, welche Rechte er wirklich benötigt sondern im Gegenteil die Dienste für die DB ausnahmslos als Admin/root laufen lässt. Gerade im Linux Bereich geht nunmall eine erhebliche Lücke von einem Dienst aus der als root läuft, da dieser viel mehr Rechte hat, als der Admin unter Windows.
Über das Thema mit der Rechtevergabe kann ich lange diskutieren, wie man merkt
Macros hat geschrieben:
Einer der Vorteile von Windows ist das mitgelieferte wbadmin ...
Ist übrigens auch bei Windows 7 / windows 8 dabei und macht das gleiche wie Acronis, nur ohne GUI.... man muss es also einmal selbst erstellen und dann in den Taskmanager einbinden. Sehr schnell / sehr stabil.
wbadmin war mir bis dato unbekannt, hab ich mir kurz angeschaut, sieht vielversprechend aus, danke für den Tip. Die Datensicherung in der Praxis läuft u.a. auf eine Portable HDD, Vorgabe der Ärztin. Sie hat zwei davon, die sie im wechsel daheim und in der Praxis hat. Da die Daten also auch ausserhalb der Praxisräume vorhanden sind, hab ich diese mittels einer PGP Keys gesichert. Es ist also noch etwas mehr in den Backup Systemen als nur Daten kopieren
Macros hat geschrieben:
Sehr gute Entscheidung ...
Unter /opt einfach eine volle Freigaben rein hauen, fand ich für ein Testsytem grenzwertig, für ein Produktiv System ist es ein NoGo, genauso wie das globale /tmp zu sharen für Gäste ...
Nun ja, /opt ist für grosse Datenmengen vorgesehen, daher liegen in diesem Ordner auch mehrere Unterordner für die Samba Shares. Die sind aber bei mir alle mit entsprechenden Zugriffsrechten versehen, sowohl für den FOS, das smbd und natürlich auch für den Zugriff der Clients. Man kann logischerweise nicht einfach ein beliebiges Notebook ans Netzwerk anschliessen und hat Zugriff auf die Windows Freigaben, ohne Passwort geht da erstmal garnichts.
Macros hat geschrieben:
Auch hier, bei Windows fordert man ein Schnell / Schnell und gönnt dem DL sein Geld nicht für eine ausführliche Dokumentation / Planung / Realisierung, unter Linux geht es nicht so einfach und man bezahlt es eher...
Da ich beides betreue, wobei Linux eher durch unsere Linux Admins, sehe ich auch an dieser Stelle, es geht immer beides, man muss nur a) wissen wie und b) auch die Zeit bekommen, es vernünftig zu machen. Linux wird leider von vielen eher als, lass es den Profi machen, Windows sieht doch genauso aus wie mein Rechner, das kann ich auch selber ...
Mein Fazit ist hier, toll das Turbo Med es anbietet, aber wirklich wollen tun sie es auch nicht ...
Es ist nichts ganzes und nichts halbes...
Da geb ich Ihnen Recht. Ich hatte noch nie grossartige Diskussionen mit meinen Kunden wegen den Kosten, liegt wohl vor allem daran, dass ich hauptsächlich die Spezialsachen mache wie Hardwarereparatur auf Bauteilebene und auch Linux Administration. Das Systemhaus hat da häufiger die Diskussion, gerade weil es ja "nur" Windows ist und die Kunden da ganz gerne selber dran rum machen und auch häufig meinen es zu können.
Nichts desto trotz, wenn ein Software Hersteller sein Produkt auch für Linux anbietet, erwarte ich einen entsprechenden Support der über das mitliefern eines fünf Jahre alten Bash Scriptes hinaus geht. Auch würde ich mich sehr darüber freuen, wenn die Hotline nicht immer direkt mit dem Satz "Das supporten wir nicht" quasi auflegt, sobald sie dort das Wort Linux auch nur iwie hört/liest, auch wenn es nichts mit dem Problem zu tun hat.