• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Viele hassen ihn, manche schwören auf ihn, wir aber möchten unbedingt sehen, welche Bilder Ihr vor Eurem geistigen Auge bzw. vor der Linse Eures iPhone oder iPad sehen könnt, wenn Ihr dieses Wort hört oder lest. Macht mit und beteiligt Euch an unserem Frühjahrsputz ---> Klick

Objective C und Datenbanken/Core Data?

Bananenbieger

Golden Noble
Registriert
14.08.05
Beiträge
25.515
Och Kinder. Weshalb habe ich wohl oben
Danke, das wollte ich wissen.
nach Amins Antwort geschrieben? :)


Hast es doch selbst zitiert: es skaliert hervorragend auch mit riesigen Datenmengen.
Was Apple schreibt und was nachher Realität ist, sind zwei verschiedene Dinge. Mein iPhoto macht auch schon bei 30.000 Bildern schlapp, obwohl Steve meinte, dass man damit deutlich mehr Bilder problemlos verwalten kann.

Probiere es aus, ich halte es für unwahrscheinlich, dass Du an Leistungsgrenzen stösst.
Ich ziehe hier Real-World-Erfahrungen den Labortests vor.
 

sumpfmonsterjunior

Morgenduft
Registriert
17.03.05
Beiträge
167
Was Apple schreibt und was nachher Realität ist, sind zwei verschiedene Dinge. Mein iPhoto macht auch schon bei 30.000 Bildern schlapp, obwohl Steve meinte, dass man damit deutlich mehr Bilder problemlos verwalten kann.
Ich ziehe hier Real-World-Erfahrungen den Labortests vor.

Merke: iPhoto != CoreData
Zu den Real-World-Erfahrungen: genau das habe ich vorgeschlagen. Apple gibt Dir mit Instruments ein Werkzeug an die Hand um z.B. auch CoreData Applikationen auf Geschwindigkeit zu trimmen.
Es ist sehr unwahrscheinlich, dass Du auf einem Anwendungsgebiet wofür CD konzipiert ist (Desktop-Apps), CD in die Knie zwingst. Falls doch, machst Du sehr wahrscheinlich was falsch. Hier sei wiederum an die Apple-Doku verwiesen. Zum Thema "Was Apple schreibt..." sei noch gesagt, dass es einen Unterschied zwischen www.apple.com und developer.apple.com gibt, was die Tiefe und den Detailgrad der Informationen angeht.
 

Amin Negm-Awad

Süsser Pfaffenapfel
Registriert
01.03.07
Beiträge
665
Es kann natürlich sein, dass deine Anwendung Core Data Probleme bereitet. Das sieht man ja nur in der Lebenswirklichkeit. Häufig ist so ein Einbruch dann aber auch ein Hinweis auf die falsche Verwendung.

Irgendwann macht Core Data sicher schlapp. Ich sagte ja nur, dass dein Model dann schlechter skaliert sein wird. Da sind schon einige Technologien verbaut, die es beschleunigen. Ich gebe dir nicht die Zeit, das alles selbst zu programmieren.

Aber nebenbei und nur unter uns und vertraulich: Ich weiß zufällig, dass du Core Data nicht mit sehr großen Datenmengen und auf Rechnern mit vielen Kernen unter Snow Leopard einsetzen solltest. Das wird keine Freude.
 

Amin Negm-Awad

Süsser Pfaffenapfel
Registriert
01.03.07
Beiträge
665
Ja, gibt es. Es ist aber so, dass da ein Leser etwas entdeckt hat, wozu er mich befragte. Da es mit seiner Arbeit zusammen hängt, möchte ich hier einfach nicht darüber reden.

Jedenfalls bis 10.6.2 würde ich dir nicht raten, sehr große Datenmengen auf Rechnern mit vielen Kernen zu bearbeiten, wenn da SL drauf läuft.
 

Bananenbieger

Golden Noble
Registriert
14.08.05
Beiträge
25.515
Dann gebe ich mich vorerst einfach mit der "ist so"-Antwort zufrieden.
 

tjp

Altgelds Küchenapfel
Registriert
07.07.04
Beiträge
4.059
Spreche ich in Rätseln? ;)
Ja, tust Du.
Ich wollte nur wissen, wie performant die ganze Sache bei großen Datenmengen in Kombination ist.
Ein ORM ist nicht für große Datenmengen gedacht, sondern nur dafür den internen Zustand eines Programms auf einen Massenspeicher abzuspeichern und ihn wiederladen zu können. Das ergibt bei aktuellen Macs DBs im GB Bereich und das gilt im DBMS Geschäft als kleine DBs. Für richtig große Datenbanken im TB oder PB Bereich ist ein ORM nicht gemacht. Oftmals werden dafür ORMs mißbraucht, aber dann braucht sich niemand über fehlende Performanz wundern.
 

Bananenbieger

Golden Noble
Registriert
14.08.05
Beiträge
25.515