mysqldump erzeugt nur einen datensatz pro tabelle

dahui

Carmeliter-Renette
Registriert
22.10.06
Beiträge
3.303
und damit wäre auch schon alles gesagt :(

Code:
myMac:/usr/local/mysql/bin dahui$ ./mysqldump -p -u root -h localhost testproject > /Users/dahui/Desktop/testproject_fulldump_20061108.sql

erzeugt ein korrektes file mit allen tabellen, allerdings mit nur einem datensatz im insert

was mich stutzig macht ist:

Code:
LOCK TABLES `con_actionlog` WRITE;
/*!40000 ALTER TABLE `con_actionlog` DISABLE KEYS */;
INSERT INTO `con_actionlog` VALUES (247,'48a365b4ce1e322a55ae9017f3daf0c0',1,1,330,0,'2006-11-08 05:45:45');
/*!40000 ALTER TABLE `con_actionlog` ENABLE KEYS */;
UNLOCK TABLES;


wenn ich auf meinem onlineserve bei HE mit mysqldump dumpe, oder per phpmyadmin dann gibts kein lock table und alle datensätze.

leider bin ich nicht so die kanone aber irgend ein setting muss da ja noch dazwischen funken.
googlen und boardsearch haben mich noch nicht zur lösung geführt :(

versions:
osx 10.4.8 (gestern erst 10.4.7 neu aufgesetzt mit allen updates)
onboard indianer 1.3
entropy-php-5.2.0-1
phpMyAdmin-2.9.0.3
mysql-max-4.1.21-apple-darwin8.5.1-i686

besten dank für euren input


(Off-Topic)
_________

ich habe in meinen AT einstellungen noch nicht gefunden wie bzw ob ich bei antworten per mail informiert werden kann o_O
 

Skeeve

Pomme d'or
Registriert
26.10.05
Beiträge
3.120
Das LOCK ist nicht das Problem. Hast Du mal überprüft, ob nicht wirklich nur ein Datensatz pro Tabelle vorhanden ist? Ich mache meine Dumps nämlich ständig so und es funktioniert tadelfrei.
 

dahui

Carmeliter-Renette
Registriert
22.10.06
Beiträge
3.303
in den tabellen sind selbstverständdlich mehr datensätze als nur einer pro tabelle vorhanden. ;)

die db selbst is auch nur ein dump von meinem onlineserver, auf dem geht es eben auch problemlos mit dem command in der shell

greife ich local mit z.b. phpmyadmin drauf und dumpe geht's auch, also alle datensätze im dump
local mit mysqldump immer nuer einer un eben dieser lock tables eintarg den ich weder online (mysqldump/phpmyadmin/cocoamysql) noch local (phpmyadmin/cocoamysql) bekomme.

o_O so ein krempel

greetz dahui
 

Skeeve

Pomme d'or
Registriert
26.10.05
Beiträge
3.120
Hast Du es mal mit einer neuen Datenbank probiert? Passiert das da auch?
 

dahui

Carmeliter-Renette
Registriert
22.10.06
Beiträge
3.303
das wäre ne idee .. moment

2 mins later

beim dump der DB 'mysql' selbst - same same :(
nur ein datensatz in dent abellen (z.b. user), und immer nur der letzte
 

dahui

Carmeliter-Renette
Registriert
22.10.06
Beiträge
3.303
so ich habe jetzt die ganze mysql installation uninstalled, geschaut wo eventuell noch was rumliegt und bereinigt, erneutes setup, all systems up and running, nur der mysqldump läuft nicht :(

noch jemand input? (merci)

greetz
dahui
 

Skeeve

Pomme d'or
Registriert
26.10.05
Beiträge
3.120
Menno! Ich meinte eigentlich, daß Du eine zusätzliche DB in der bestehenden mysql Installation anlegst!

Aber!

Ich hbe gerade mal einen Dump meiner "test" DB angeschaut. Die hat 10 Einträge in einer Tabelle, ich bekomme aber nur 1 INSERT Statement. Und das ist korrekt! So sieht es aus:

INSERT INTO `country` VALUES ('de',1),('de',2),('de',1),('de',1),('de',1),('de',1),('de',2),('uk',2),('uk',2),('uk',1);

Also teste mal:

1. Dump machen
2. Dump in eine andere DB zurück spielen
3. Vergleichen ob zurückgespieltes okay ist
 

dahui

Carmeliter-Renette
Registriert
22.10.06
Beiträge
3.303
Menno! Ich meinte eigentlich, daß Du eine zusätzliche DB in der bestehenden mysql Installation anlegst!

sorry habe ich nur vergesen zu staten, aber natürlich habe ich tabellen und DB versucht per phpmyadmin zu reparieren, neue DB angelegt und extren erzeigten dump einspielen dann wieder ausgeben per mysqldump und zurückspielen. ohne efolg :(

unterschied ist aus sehr einfach daran zu erkennen, dass der source dump aus dem online system 1.4mb hat, speiel ich den loal ein und schaue mir die DB mir phpmyadmin an dann sind alle tabellen und inhalte da.

nach dem dump mit mysqldump übers terminal hat dieser dann nur noch 448kb und wenn ich diesen in eine weitere neue DB einspiele dann ist pro tabelle nur der letzte datensatz übernommen worden

INSERT INTO `country` VALUES ('de',1),('de',2),('de',1),('de',1),('de',1),('de',1),('de',2),('uk',2),('uk',2),('uk',1);

würde bei mir so aussehen:

Code:
INSERT INTO `country` VALUES ('uk',1);

und eben lock table comments aussen rum

greetz
dahui
 

ZENcom

Goldener Apfel der Eris
Registriert
30.03.06
Beiträge
2.600
Das Problem hatte ich auch einmal… (sogar bei HE). Es kann nämlich vorkommen das bei einer Größe von über 1MB pro Datensatz das Dump nicht komplett überspielt wird. Warum das so ist hab ich auch noch nicht herausgefunden, aber ich habe dann die Datensätze einzeln kopiert und das ging dann einwandfrei. Scheinbar ist das ein Problem was mit MySQL zusammenhängt. Musste auch Stunden rumschubsen bis ichs dann heraus hatte.

:)
 

dahui

Carmeliter-Renette
Registriert
22.10.06
Beiträge
3.303
jetzt habe ich heute vor lauter frust mir ein diskimage gemacht und dann nochmal das ganze system neu aufgesetzt, und sieh da es funktioniert.

sorry gusy to bother you o_O und dank für euren input

bleibt für einen 'Monk' wie mich noch die frage was nun vorher anders war, und wie so oft im leben werde ich wahrscheinlich ohne antwort leben müssen :( anyway it workz !!!


thx & greetings
dahui

btw, dass ein datensatz oder eine tabelle selbst > 1gb den fehler verursacht kann ich bei mir ausschliessen
 
Zuletzt bearbeitet: