• RE: Request File Größe

    Guten Tag Morris Willmer, als leidgeprüfter Request Nutzer, der ungefähr seit einer ähnlich langen Zeit mit den Request Archiven kämpft, kann ich hier kurz meine bisherige Erfahrung mitteilen, würde mich aber freuen, wenn ich im Gegenzug erfahren könnte, was DocuWare in Ihrem Fall erreichen konnte.

    Ich versuche schon seit mehr als einem halben Jahr, einen von der Datenmenge er "explodierten" Cloud Datenbestand zu bereinigen, indem wir die Daten in Request Archive exportieren. Da die Datenstruktur Dokumente von wenigen Kilobyte bis zu zweistelligen MB-Größen aufweist, ist die Anzahl der Dokumente keine Richtgröße für uns, sondern die Datenmenge. Diese überschreite ich in meinen Request Konfigurationen regelmäßig.
    Nachdem die Jobs zunächst tagelang liefen, bis sie abgebrochen sind, konnte DocuWare das ganze zumindest dahingehend optimieren, dass ein Abbruch relativ zeitnah erfolgt. Auch konnte ich feststellen, dass eine geringfügige Überschreitung von einigen Prozent des maximalen Datenvolumens nicht zu einem Jobabbruch führt.

    Was leider immer noch nicht funktioniert ist das "Erkennen", wann ich eine der beiden Limitationen erreiche oder überschreite. Ich habe mir als Hilfsmittel die Dateigröße des Dokuments in ein Indexfeld schreiben lassen, trotzdem bleibt es bei "Try & Error". Ich generiere eine Ergebnisliste und schaue, ob es von der Dateigrößer her "noch passt".

    Was konnte DocuWare in Ihrem Fall tun? Ich würde ich hier über ein kurzes Feedback freuen.

    Leider bin ich jetzt erst über den Beitrag "gestolpert", weil ich nach einem langen Abend rumprobieren nicht mehr weiter weiß und jetzt wieder mal ein Ticket aufmachen muss.

    Vielen Dank und Beste Grüße

    Marcus Herre
  • Eskalation von Aufgaben mit variablem Fälligkeitsdatum.

    Wenn in einem Workflow der Erinnerungszeitpunkt über eine Variable definiert wird, (hier: definiertes Fälligkeitsdatum, Erinnerung 9 Tage vor Erreichen der Fälligkeit) kann es sein, dass bei Erreichen der Aufgabe der Erinnerungszeitpunkt bereits verstrichen ist. Das kann ich zwar über arithmetische Ausdrücke in der Variable für das Erinnerungsdatum abfangen, die Eskalation läuft allerdings in einen Fehler, da sie nur n-Tage nach der Erinnerung erfolgen kann, was in diesem Fall bereits in der Vergangenheit läge. Wie kann ich das beheben?
  • RE: Import Jobs Stopping Randomly

    Zwei Monate und immer noch keine Lösung? Habe dasselbe Problem. Werden dann wohl auch ein Ticket öffnen müssen.
     

  • Best Practise für Protokollierung?

    Hallo Zusammen,

    im Zuge der Nachvollziehbarkeit (DSGVO, GOBD), sollte ich ja den kompletten Lebenszyklus eines Dokuments nachvollziehen können. Das geht bei "lebenden" Dokumenten ja mittlerweile ganz gut über die Dokument Historie. Nun soll ich aber beispielsweise für einen Bewerber nachweisen können, dass wir seine digitalen Unterlagen gelöscht haben. (So will es die DSGVO). Hat hierzu schon jemand einen Prozess implementiert, um das zu protokollieren?

    Best Grüße
  • Ich schließe mich an.

    Ich hänge auch an dieser Stelle und habe mir bei bisherigen Problemstellungen dieser Art mit der Änderung eines Indexfelds innerhalb der Verarbeitung beholfen. D. h. alle neuen Dokumente mit dem Status "neu" versehen und sobald sie in Bearbeitung genomen wurden den Status geändert. aufgrund des unterschiedlichen Statusmerkmals kann ich nun die Dubletten eindeutig zuordnen. (ich nutze die Variante Autoindex). Leider ist das auch nicht zu 100% sicher, da es Anwender auch schon geschafft haben, original Dokument und Dublette zu bearbeiten, bevor Autoindex die Dublette finden kann.

    @ Hr. Schindler: ich denke hier könnte ein entsprechendes SQL-Statement weiterhelfen, um mir nicht mit dem Status behelfen zu müssen. Hätten Sie da einen Tipp?