af0815 hat geschrieben:ralli hat folgendes geschrieben:
Das Problem ist oft das Gleiche, die Benutzer kennen Ihr Anforderungsprofil zu wenig, und richten sich dann nach dem, was sie von anderen mal gehört haben. Meisten setzen sie dann ein Datenbanksystem ein, was völlig überdimensioniert ist. Und wechseln von einem Sql System auf ein anderes mit der dazugehörigen Migration, dürdfte heute auch kein Problem mehr darstellen. Weil der Grundvorrat an SQL Befehlen ja auch sowieso standardisiert ist. Und Oracle dürfte wohl von der Ivestitionsseite für niemanden ernsthaft in Frage kommen. Ansonsten ist der Markt für Datenbanken erheblich geschrumpft und eher übersichtlich...
ralli
Das eher Philisophische daran ist, das es leider immer wieder vorkommt, da Leute gute Programme auf Desktopdatenbanken (DBase, Access,...) entwickelt haben und dann diese Anwendungen auf einen Server portieren. Und dann gehts am Anfang gut, bis die Datenmengen größer werden und dann herumgebastelt wird, damit das halbwegs funktioniert. Auch bei Schulabgänmgern und Proktikanten beobachtet. Keiner hat bei seinen kleinen Projekten sich je mit Datenmengen auseinandergesetzt. Und wunder sich, wenn bei einem 'Sel_ect * from table' plötzlich 200.000 Datensätze kommen und das ganze 1 Minute dauert Smile
Desktop Datenbanken sind gut und performant wenn richtig eingesetzt, aber man darf beim Design nicht wirklich aus den Augen verlieren, was kann als Datenmenge kommen und vor allen wie funktioniert die Wartung/Backup. Das Kapitel wird von den meisten gar nicht berücksichtigt.
Beispiel eine BDE Erfassung bei einem Schnellläufer (Maschine mit hohen Output) kann schon mal 100.000 bis 1.000.000 Buchungen am Tag bedeuten. Die täglich verdichtet werden. Da wird ein bereinigen der obsoleten Datensätze, ein Kompress im laufen, Auswertungen etc. zur Herausforderung und sogar 'poor Man' Server können da schon schnell in die Knie gehen, von Desktopdatenbanken ganz zu schweigen.
Das Problem ist, es macht sich keiner die Mühe, in seine Datenbank soviele Datensätze einzufüllen, das er in die Nähe der Projektierten Grenze kommt. Und wenn es 1000 Datensätz bei einer einfachen Adressverwaltung sind. Da kann es dann ganz schöne 'AHA' Erlebnisse geben. Gar nicht zu reden wenn es auf mehreren Arbeitsplätzen zugleich laufen soll.
Deshalb meine Meinung, man sollte das Design entsprechend auslegen, dort auch die Entwicklung hineinlegen (auch bei kleinen Projekten) denn dann ist die halbe Arbeit getan und der Rest ist Tippsen und Optik SmileDas eher Philisophische daran ist, das es leider immer wieder vorkommt, da Leute gute Programme auf Desktopdatenbanken (DBase, Access,...) entwickelt haben und dann diese Anwendungen auf einen Server portieren. Und dann gehts am Anfang gut, bis die Datenmengen größer werden und dann herumgebastelt wird, damit das halbwegs funktioniert. Auch bei Schulabgänmgern und Proktikanten beobachtet. Keiner hat bei seinen kleinen Projekten sich je mit Datenmengen auseinandergesetzt. Und wunder sich, wenn bei einem 'Sel_ect * from table' plötzlich 200.000 Datensätze kommen und das ganze 1 Minute dauertralli hat geschrieben:Das Problem ist oft das Gleiche, die Benutzer kennen Ihr Anforderungsprofil zu wenig, und richten sich dann nach dem, was sie von anderen mal gehört haben. Meisten setzen sie dann ein Datenbanksystem ein, was völlig überdimensioniert ist. Und wechseln von einem Sql System auf ein anderes mit der dazugehörigen Migration, dürdfte heute auch kein Problem mehr darstellen. Weil der Grundvorrat an SQL Befehlen ja auch sowieso standardisiert ist. Und Oracle dürfte wohl von der Ivestitionsseite für niemanden ernsthaft in Frage kommen. Ansonsten ist der Markt für Datenbanken erheblich geschrumpft und eher übersichtlich... ralliDesktop Datenbanken sind gut und performant wenn richtig eingesetzt, aber man darf beim Design nicht wirklich aus den Augen verlieren, was kann als Datenmenge kommen und vor allen wie funktioniert die Wartung/Backup. Das Kapitel wird von den meisten gar nicht berücksichtigt. Beispiel eine BDE Erfassung bei einem Schnellläufer (Maschine mit hohen Output) kann schon mal 100.000 bis 1.000.000 Buchungen am Tag bedeuten. Die täglich verdichtet werden. Da wird ein bereinigen der obsoleten Datensätze, ein Kompress im laufen, Auswertungen etc. zur Herausforderung und sogar 'poor Man' Server können da schon schnell in die Knie gehen, von Desktopdatenbanken ganz zu schweigen. Das Problem ist, es macht sich keiner die Mühe, in seine Datenbank soviele Datensätze einzufüllen, das er in die Nähe der Projektierten Grenze kommt. Und wenn es 1000 Datensätz bei einer einfachen Adressverwaltung sind. Da kann es dann ganz schöne 'AHA' Erlebnisse geben. Gar nicht zu reden wenn es auf mehreren Arbeitsplätzen zugleich laufen soll. Deshalb meine Meinung, man sollte das Design entsprechend auslegen, dort auch die Entwicklung hineinlegen (auch bei kleinen Projekten) denn dann ist die halbe Arbeit getan und der Rest ist Tippsen und Optik
Das eher Philisophische daran ist, das es leider immer wieder vorkommt, da Leute gute Programme auf Desktopdatenbanken (DBase, Access,...) entwickelt haben und dann diese Anwendungen auf einen Server portieren. Und dann gehts am Anfang gut, bis die Datenmengen größer werden und dann herumgebastelt wird, damit das halbwegs funktioniert. Auch bei Schulabgänmgern und Proktikanten beobachtet. Keiner hat bei seinen kleinen Projekten sich je mit Datenmengen auseinandergesetzt. Und wunder sich, wenn bei einem 'Sel_ect * from table' plötzlich 200.000 Datensätze kommen und das ganze 1 Minute dauertralli hat geschrieben:Das Problem ist oft das Gleiche, die Benutzer kennen Ihr Anforderungsprofil zu wenig, und richten sich dann nach dem, was sie von anderen mal gehört haben. Meisten setzen sie dann ein Datenbanksystem ein, was völlig überdimensioniert ist. Und wechseln von einem Sql System auf ein anderes mit der dazugehörigen Migration, dürdfte heute auch kein Problem mehr darstellen. Weil der Grundvorrat an SQL Befehlen ja auch sowieso standardisiert ist. Und Oracle dürfte wohl von der Ivestitionsseite für niemanden ernsthaft in Frage kommen. Ansonsten ist der Markt für Datenbanken erheblich geschrumpft und eher übersichtlich... ralliDesktop Datenbanken sind gut und performant wenn richtig eingesetzt, aber man darf beim Design nicht wirklich aus den Augen verlieren, was kann als Datenmenge kommen und vor allen wie funktioniert die Wartung/Backup. Das Kapitel wird von den meisten gar nicht berücksichtigt. Beispiel eine BDE Erfassung bei einem Schnellläufer (Maschine mit hohen Output) kann schon mal 100.000 bis 1.000.000 Buchungen am Tag bedeuten. Die täglich verdichtet werden. Da wird ein bereinigen der obsoleten Datensätze, ein Kompress im laufen, Auswertungen etc. zur Herausforderung und sogar 'poor Man' Server können da schon schnell in die Knie gehen, von Desktopdatenbanken ganz zu schweigen. Das Problem ist, es macht sich keiner die Mühe, in seine Datenbank soviele Datensätze einzufüllen, das er in die Nähe der Projektierten Grenze kommt. Und wenn es 1000 Datensätz bei einer einfachen Adressverwaltung sind. Da kann es dann ganz schöne 'AHA' Erlebnisse geben. Gar nicht zu reden wenn es auf mehreren Arbeitsplätzen zugleich laufen soll. Deshalb meine Meinung, man sollte das Design entsprechend auslegen, dort auch die Entwicklung hineinlegen (auch bei kleinen Projekten) denn dann ist die halbe Arbeit getan und der Rest ist Tippsen und Optik
Zum vollen Editor wechseln
ralli hat geschrieben:@af0815, da stimme ich Dir voll und ganz zu, die zu erwartende Datenmenge plus Puffer sind ein sehr wichtiges Entscheidungskriterium, vielleicht das WICHTIGSTE. Obwohl bei einem Freiberufler ja eher nicht solche Datenmengen anfallen.
Also zum Test habe ich in (fast allen Datenbankformaten) kleinere Datenbestände mehrerer Städte mit Telefonbucheinträgen bis zu der Stadt Hamburg, die ca 700000 Datensätze umfasst. Es ist erstaunlich, das ich auch bei meinem dbmaker mit der tdbf Komponente bei einer normalen Abfrage zu einer erträglichen Antwortzeit kommt.
ralli