Hallo zusammen, ich bin dabei ein GUI (Offline-Variante) für unser E-Commerce zu planen/zu erarbeiten. Dabei stosse ich auf folgendes Problem: Im E-Commerce(Zope) stehen sämtliche Daten in einer pgsql-db zur Verfügung. Wie sollte man für eine Suchfunktion dieses Datenvolumen (Preislisten, Profuktbeschreibungen, usw.) am besten durchsuchen in punkto Geschwindigkeit ? Es werden dann mehrere Dateien mit einem Gesamtvolumen von ca. 100 MB. readline, readlines, xreadline ? re.match ? Hat jemand schon Erfahrungen mit dem Suchen in grossen Dateien gemacht ? Oder gibt es eine bessere Möglichkeit, die Daten "offline" zur Verfügung zu stellen ? Gruss Axel Peacock Printing Solutions -> Sie haben die Aufgaben - Wir haben die Lösungen!!! Weitere Informationen finden Sie unter: http://www.peacock.de/company/it_distribution/value_distribution/printing_so... Sie erreichen uns auch unter E-Mail: Hardcopy@Peacock.de oder Tel.: 02957/79-2444 _______________________________________________ Python-de maillist - Python-de@starship.python.net http://starship.python.net/mailman/listinfo/python-de
Axel_Gerke@peacock.de writes:
Im E-Commerce(Zope) stehen sämtliche Daten in einer pgsql-db zur Verfügung. Wie sollte man für eine Suchfunktion dieses Datenvolumen (Preislisten, Profuktbeschreibungen, usw.) am besten durchsuchen in punkto Geschwindigkeit ?
Ich würde empfehlen, die Suchfunktionen der Datenbank zu verwenden, also SQL. Dafür ist die Datenbank schließlich da. Ciao, Martin _______________________________________________ Python-de maillist - Python-de@starship.python.net http://starship.python.net/mailman/listinfo/python-de
On Thursday 21 November 2002 07:56, you wrote:
Hallo zusammen,
ich bin dabei ein GUI (Offline-Variante) für unser E-Commerce zu planen/zu erarbeiten. Dabei stosse ich auf folgendes Problem: Im E-Commerce(Zope) stehen sämtliche Daten in einer pgsql-db zur Verfügung. Wie sollte man für eine Suchfunktion dieses Datenvolumen (Preislisten, Profuktbeschreibungen, usw.) am besten durchsuchen in punkto Geschwindigkeit ? Es werden dann mehrere Dateien mit einem Gesamtvolumen von ca. 100 MB.
readline, readlines, xreadline ? re.match ?
Da du deine Daten schon in einer SQL Datenbank hast, solltest du die Daten mit SQL durchsuchen (dafür ist SQL schliesslich da). Versuch die Daten auch für deine Offline Variante in einer SQL Datenbank zu halten. Probier vielleicht mal Gadfly (http://gadfly.sourceforge.net/). Ansonsten würde ich ein externes Programm verwenden, um die Daten zu indexieren (z.B. siwsh-e). Das einzige, was du nicht machen solltest, ist, die Daten mit Python direkt zu durchsuchen.
Hat jemand schon Erfahrungen mit dem Suchen in grossen Dateien gemacht?
Oder gibt es eine bessere Möglichkeit, die Daten "offline" zur Verfügung zu stellen ?
Gruss Axel
Peacock Printing Solutions -> Sie haben die Aufgaben - Wir haben die Lösungen!!! Weitere Informationen finden Sie unter: http://www.peacock.de/company/it_distribution/value_distribution/printing_s olution/
Sie erreichen uns auch unter E-Mail: Hardcopy@Peacock.de oder Tel.: 02957/79-2444
_______________________________________________ Python-de maillist - Python-de@starship.python.net http://starship.python.net/mailman/listinfo/python-de
_______________________________________________ Python-de maillist - Python-de@starship.python.net http://starship.python.net/mailman/listinfo/python-de
participants (3)
-
Axel_Gerke@peacock.de -
martin@v.loewis.de -
Stephan Diehl