Beiträge von XTraveller

    Ich bin zwar auch nicht der unbedingte Windoiws-Fan - aber bei uns laufen mehrere Dutzend Domino-Server weltweit unter Windows 2k bzw 2k3.
    Und das sogar ziemlich stabil.
    Rekordhalter ist im Moment ein Server in Shanghai - er ist seit über 1,5 Jahren pausenlos am Netz, ohne jegliche Unterbrechung.
    Was aber nicht heißen soll, Linux wäre eine schlechte Wahl. Ganz im Gegenteil - ich würde gerne mal einen Linux-Domino aufsetzen, aber wie gesagt, bei uns im Laden ist Windows Standard.

    Jedes Dokument bekommt beim Erstellen von Notes eine eindeutige ID verpaßt, die sich auch auslesen läßt. Schau mal in der Hilfe nach unter @DocumentUniqueID.
    Ist zwar kein reiner Zahlencode, sollte aber den Anforderungen genügen.

    Ich denke, einen zweiten Server auf Basis Windows zu nehmen, ist keine schlechte Idee.
    Wir haben zur Zeit mehr als 30 Server (Mail, Web, diverse Applikationen) in dieser Konfiguration für ca. 5300 User im Einsatz - und es läuft.

    Soweit ich weiß, wird bei der Nutzung von "pass-Thru HTML" der Teil von Notes/Domino umgangen, der die Aufbereitung reiner Notes-Daten in HTML vornimmt. --> Daher villeicht auch der Name Pass-Thru.
    Wir nutzen in unseren Applikationen so ziemlich alles, was es an HTML-TAGS gibt und haben damit keine Probleme.
    Leider weiss ich aber im Moment auch nicht, woher die geschilderten Probleme kommen.
    Gibt es vielleicht noch mehr Infos?

    Naja, bei uns genau einer vor, was wie verlinkt wird - und daran haben sich alle zu halten. Deswegen habe ich es an der Stelle relativ einfach. Hat aber international viel Überzeugungsarbeit gekostet.
    Tja, ein WebqueryOpen-Agent? Hmm, ich fürchte, der wird nicht so richtig greifen. Ist aber nur so ein Bauchgefühl.
    Wahrscheinlich ist es davon abhängig, wie hoch der Traffic auf dem Server ist. Ich denke mal, wenn der Agent nur oft genug getriggert wird (wie eigentlich genau?), um etwas in eine DB zu schreiben, bleibt nicht viel Performance für den Server übrig.
    Muß denn die Auswertung jeweils in Echtzeit erfolgen oder reicht es nicht z.B. einmal täglich oder wöchentlich die LogFiles irgendwie irgendwo hin zu schreiben und dann auszuwerten?

    Was wir gemacht haben, ist ein Content Management System zu entwickeln, das vollständig in Notes realisiert ist.
    Die Pflege der Daten und damit auch die Verlinkung erfolgt natürlich innerhalb von Masken. Und hier nutzen wir fast ausschließlich unsere short_urls. Ich sage fast, weil wir noch ein paar Altlasten haben und weil wir uns die Möglichkeit offengehalten haben, auch direkt die IDs zu verlinken.


    Die Vorschau erfolgt über einen Browser - damit wir alles so sehen, wie es der User auch sieht.

    Also, wir werten die Zugriffe auf unseren Webserver folgendermaßen aus:


    Wir schreiben LogFiles, die IIS-kompatibel sind. Das läßt sich als Parameter so einstellen.


    Für die Zugriffe von unterschiedlichen Domains sind eine reihe von virtuellen Hosts eingerichtet. Damit läßt sich dann eine Zuordung zu den verschiedenen Auftritten machen.


    Bei der Verlinkung wird immer etwas hereingerechnet, das wir short_url nennen. Sorry, ich kenne den richtigen Ausdruck nicht. Aber: statt einem langen kryptischen und mit IDs versehen Link reicht dann so etwas wie /sprache/kategorie/ansicht/file.htm
    Dies erscheint auch so im LogFile und ist dann über einige wenige Filter einfach auswertbar.


    Wir nutzen hierfür WebTrends.


    Achja, noch etwas: Das erstellte LogFile ist nicht ganz kompatibel mit dem, was WebTrends erwartet, was aber in den Auswertungen nicht stört. So steht z.B. im Logfile am Ende der Zeile immer, welche Datenbank aufgerufen wurde, und das würde doch zumeindest einen Punkt lösen.


    Okay: Alles das ist bestimmt nur irgendein Workaround und an einer besseren lösung wäre ich auch interessiert.


    PS: Den Weg über Notes-DB haben wir auch versucht, aber bei ca. 5-8 Mio. Einträgen pro Tag und Server war das keine gute Lösung - oder wir haben etwas falsch gemacht.