Beiträge von Nicker

    Nach Aktualisierungen wird der Index stets neu erstellt.
    Server ist 6.5, Client 6.5.3 German.
    Anbindungen von 128KB bis 100Mbit. Das Netz ist auch okay, dass es bei denen mit zwei ISDN Leitungen eh längert dauert, ist klar. Beklagen tun sich auch nur die User, die im 100er Lan hängen. Die anderen kennen es ja nicht anders :)






    Nee, die Zugriffszeiten verlangsamen sich stetig. Wenn ich eine Archivierung mache, sind die wieder respektabel. Aber ich habe im konkreten Fall 200.000 Stammdaten (Jährliches Wachstum ca. 35.000 Doks) in der DB. Und die Anfrage, die ich habe, bezieht sich auf ca. 550.000 Stamdatensätze. Ein jährliches Wachstum von rund 100.000 ist anzunehmen.
    Daher meine Überlegung, dass ganze soweit als möglich zu verschlanken. Das mit dem Auslagern ist sicher ne Klasse Idee.

    Die Zugriffszeiten sind von ca 2 Sekunden auf 10 oder 15 gestiegen. Zwar sporadisch, aber dennoch immer öfters. Wobei das unabhängig von der Bandbreite oder vom Client ist.


    Definier mal viele Views? Ich habe zur Zeit 56. Für den normalen Betrieb benötige ich jedoch eigentlich nur 10. Die Masse kommt zustande, weil ich in den "Systemeinstellungen" (auch ne View) der DB die Administration untergebracht habe. Eine View für Anredeformen, eine für Filialen, etc. Würde es dann Sinn machen, die Views zu verringern, indem ich die Dokumente zusammen fasse?

    Hallo Zusammen,


    ich mache mir gerade Gedanken darüber, wie gross eine DB werden kann und noch lauffähig ist und wieviel Dokumente reinpassen.


    Ich weiss, es ist abhängig von folgenden Dingen:


    Hardware (in der Regel XEON und 4GB RAM)
    Anzahl der Clients (im Schnitt 100 bis 150)
    Anzahl der Datenbanken (Alle Clients im Netz arbeiten praktisch auf dem Server, dort wird fast jede Anwendung abgebildet)
    Anzahl der Dokument (zur Zeit im Schnitt 300.000, jedoch schon mit Performance Verlust)
    Bandbreite (2 bis 100MBit)
    Indexe (ist der Plural richtig ? :D )
    Programmierung (Hier will ich ansetzen)


    Im konkreten Fall ist es so, dass ich eine Anfrage beantworten muss, ob es mir gelingt, die DB auch mit ca. 800 bis 900.000 Dokumenten vernünftig am Laufen zu halten. Da ich jetzt schon mit rund 300.000 Probleme habe und ich die Rahmenbedingungen nicht ändern kann, muss ich an die Programmierung. Da stellst sich mir die Frage: Wie programmiere ich richtig, schlank und effektiv? Welche Anfängerfehler passieren eigentlich immer, wenn man keinen Plan hat, was kann man verbessern?
    Also: Wo kann ich Performance rausholen?


    Zur History: Datenbank irgenwann übernommen, in Notes mittels der dieser DB reingewachsen, sprich: eventuelle Entwickler-Fehler als richtig angenommen und wahrscheinlich auch fortgesetzt.


    Oder hilft mir einfach nur irgendein Buch weiter?


    Grüsse
    Nicker