1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen
  2. Unsere jährliche Weihnachts-Banner-Aktion hat begonnen! Wir freuen uns auf viele, viele kreative Vorschläge.
    Mehr dazu könnt Ihr hier nachlesen: Weihnachtsbanner 2016

    Information ausblenden

mysqldump erzeugt nur einen datensatz pro tabelle

Dieses Thema im Forum "Unix & Terminal" wurde erstellt von dahui, 08.11.06.

  1. dahui

    dahui Carmeliter-Renette

    Dabei seit:
    22.10.06
    Beiträge:
    3.303
    und damit wäre auch schon alles gesagt :(

    Code:
    myMac:/usr/local/mysql/bin dahui$ ./mysqldump -p -u root -h localhost testproject > /Users/dahui/Desktop/testproject_fulldump_20061108.sql
    
    erzeugt ein korrektes file mit allen tabellen, allerdings mit nur einem datensatz im insert

    was mich stutzig macht ist:

    Code:
    LOCK TABLES `con_actionlog` WRITE;
    /*!40000 ALTER TABLE `con_actionlog` DISABLE KEYS */;
    INSERT INTO `con_actionlog` VALUES (247,'48a365b4ce1e322a55ae9017f3daf0c0',1,1,330,0,'2006-11-08 05:45:45');
    /*!40000 ALTER TABLE `con_actionlog` ENABLE KEYS */;
    UNLOCK TABLES;
    

    wenn ich auf meinem onlineserve bei HE mit mysqldump dumpe, oder per phpmyadmin dann gibts kein lock table und alle datensätze.

    leider bin ich nicht so die kanone aber irgend ein setting muss da ja noch dazwischen funken.
    googlen und boardsearch haben mich noch nicht zur lösung geführt :(

    versions:
    osx 10.4.8 (gestern erst 10.4.7 neu aufgesetzt mit allen updates)
    onboard indianer 1.3
    entropy-php-5.2.0-1
    phpMyAdmin-2.9.0.3
    mysql-max-4.1.21-apple-darwin8.5.1-i686

    besten dank für euren input


    (Off-Topic)
    _________

    ich habe in meinen AT einstellungen noch nicht gefunden wie bzw ob ich bei antworten per mail informiert werden kann o_O
     
  2. Skeeve

    Skeeve Pomme d'or

    Dabei seit:
    26.10.05
    Beiträge:
    3.121
    Das LOCK ist nicht das Problem. Hast Du mal überprüft, ob nicht wirklich nur ein Datensatz pro Tabelle vorhanden ist? Ich mache meine Dumps nämlich ständig so und es funktioniert tadelfrei.
     
  3. dahui

    dahui Carmeliter-Renette

    Dabei seit:
    22.10.06
    Beiträge:
    3.303
    in den tabellen sind selbstverständdlich mehr datensätze als nur einer pro tabelle vorhanden. ;)

    die db selbst is auch nur ein dump von meinem onlineserver, auf dem geht es eben auch problemlos mit dem command in der shell

    greife ich local mit z.b. phpmyadmin drauf und dumpe geht's auch, also alle datensätze im dump
    local mit mysqldump immer nuer einer un eben dieser lock tables eintarg den ich weder online (mysqldump/phpmyadmin/cocoamysql) noch local (phpmyadmin/cocoamysql) bekomme.

    o_O so ein krempel

    greetz dahui
     
  4. Skeeve

    Skeeve Pomme d'or

    Dabei seit:
    26.10.05
    Beiträge:
    3.121
    Hast Du es mal mit einer neuen Datenbank probiert? Passiert das da auch?
     
  5. dahui

    dahui Carmeliter-Renette

    Dabei seit:
    22.10.06
    Beiträge:
    3.303
    das wäre ne idee .. moment

    2 mins later

    beim dump der DB 'mysql' selbst - same same :(
    nur ein datensatz in dent abellen (z.b. user), und immer nur der letzte
     
  6. dahui

    dahui Carmeliter-Renette

    Dabei seit:
    22.10.06
    Beiträge:
    3.303
    so ich habe jetzt die ganze mysql installation uninstalled, geschaut wo eventuell noch was rumliegt und bereinigt, erneutes setup, all systems up and running, nur der mysqldump läuft nicht :(

    noch jemand input? (merci)

    greetz
    dahui
     
  7. Skeeve

    Skeeve Pomme d'or

    Dabei seit:
    26.10.05
    Beiträge:
    3.121
    Menno! Ich meinte eigentlich, daß Du eine zusätzliche DB in der bestehenden mysql Installation anlegst!

    Aber!

    Ich hbe gerade mal einen Dump meiner "test" DB angeschaut. Die hat 10 Einträge in einer Tabelle, ich bekomme aber nur 1 INSERT Statement. Und das ist korrekt! So sieht es aus:

    INSERT INTO `country` VALUES ('de',1),('de',2),('de',1),('de',1),('de',1),('de',1),('de',2),('uk',2),('uk',2),('uk',1);

    Also teste mal:

    1. Dump machen
    2. Dump in eine andere DB zurück spielen
    3. Vergleichen ob zurückgespieltes okay ist
     
  8. dahui

    dahui Carmeliter-Renette

    Dabei seit:
    22.10.06
    Beiträge:
    3.303
    sorry habe ich nur vergesen zu staten, aber natürlich habe ich tabellen und DB versucht per phpmyadmin zu reparieren, neue DB angelegt und extren erzeigten dump einspielen dann wieder ausgeben per mysqldump und zurückspielen. ohne efolg :(

    unterschied ist aus sehr einfach daran zu erkennen, dass der source dump aus dem online system 1.4mb hat, speiel ich den loal ein und schaue mir die DB mir phpmyadmin an dann sind alle tabellen und inhalte da.

    nach dem dump mit mysqldump übers terminal hat dieser dann nur noch 448kb und wenn ich diesen in eine weitere neue DB einspiele dann ist pro tabelle nur der letzte datensatz übernommen worden

    würde bei mir so aussehen:

    Code:
    INSERT INTO `country` VALUES ('uk',1);
    
    und eben lock table comments aussen rum

    greetz
    dahui
     
  9. ZENcom

    ZENcom Goldener Apfel der Eris

    Dabei seit:
    30.03.06
    Beiträge:
    2.650
    Das Problem hatte ich auch einmal… (sogar bei HE). Es kann nämlich vorkommen das bei einer Größe von über 1MB pro Datensatz das Dump nicht komplett überspielt wird. Warum das so ist hab ich auch noch nicht herausgefunden, aber ich habe dann die Datensätze einzeln kopiert und das ging dann einwandfrei. Scheinbar ist das ein Problem was mit MySQL zusammenhängt. Musste auch Stunden rumschubsen bis ichs dann heraus hatte.

    :)
     
  10. dahui

    dahui Carmeliter-Renette

    Dabei seit:
    22.10.06
    Beiträge:
    3.303
    jetzt habe ich heute vor lauter frust mir ein diskimage gemacht und dann nochmal das ganze system neu aufgesetzt, und sieh da es funktioniert.

    sorry gusy to bother you o_O und dank für euren input

    bleibt für einen 'Monk' wie mich noch die frage was nun vorher anders war, und wie so oft im leben werde ich wahrscheinlich ohne antwort leben müssen :( anyway it workz !!!


    thx & greetings
    dahui

    btw, dass ein datensatz oder eine tabelle selbst > 1gb den fehler verursacht kann ich bei mir ausschliessen
     
    #10 dahui, 09.11.06
    Zuletzt bearbeitet: 09.11.06

Diese Seite empfehlen