<?xml version="1.0" encoding="utf-8"?><!-- generator="b2evolution/6.11.7-stable" -->
<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:admin="http://webns.net/mvcb/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:wfw="http://wellformedweb.org/CommentAPI/" xmlns:atom="http://www.w3.org/2005/Atom">
	<channel>
		<title>Sascha Lorenz - Kategorie: "Projektmanagement"</title>
		<link>https://www.insidesql.org/blogs/saschalorenz/</link>
		<atom:link rel="self" type="application/rss+xml" href="https://www.insidesql.org/blogs/saschalorenz/?tempskin=_rss2" />
		<description>InsideSQL.org Blogs - Blogs über SQL Server</description>
		<language>de-DE</language>
		<docs>http://blogs.law.harvard.edu/tech/rss</docs>
		<admin:generatorAgent rdf:resource="http://b2evolution.net/?v=6.11.7-stable"/>
		<ttl>60</ttl>
				<item>
			<title>Dokumentation als Teil eines Risikomanagement Prozesses verstehen</title>
			<link>https://www.insidesql.org/blogs/saschalorenz/2012/06/20/dokumentation-als-teil-eines-risikomanagement</link>
			<pubDate>Wed, 20 Jun 2012 13:48:00 +0000</pubDate>			<dc:creator>Sascha Lorenz</dc:creator>
			<category domain="main">Allgemein</category>
<category domain="alt">SQL Server</category>
<category domain="alt">Projektmanagement</category>
<category domain="alt">Business Intelligence</category>			<guid isPermaLink="false">3285@https://www.insidesql.org/blogs/</guid>
						<description>&lt;p&gt;Heute mal was ganz anderes. Liegt mir gerade auf dem Herzen.&lt;/p&gt;  &lt;p&gt;Lasst uns über Dokumentation in Projekten und beim späteren Betrieb der Lösung sprechen. Hey, jetzt nicht gleich umschalten. :-)&lt;/p&gt;  &lt;p&gt;Über Dokumentation spricht keiner gerne. Sie hat den Ruf, dass das Erstellen meist im Weg steht und als lästige Pflicht gesehen wird. Klar wird jeder sofort den Nutzen einer Dokumentation nicht in Frage stellen wollen, dennoch ist sie das Stiefkind vieler Projekte. &lt;/p&gt;  &lt;p&gt;Woran liegt das? &lt;/p&gt;  &lt;p&gt;Meine These dazu ist, dass das Dokumentieren von Lösungen als so unangenehm wahrgenommen wird, weil vielen einfach nicht immer wirklich klar ist, was denn nun wie dokumentiert werden muss. Vorlagen existieren meist nur bei großen Organisationsstrukturen wie Konzernen und Behörden oder zertifizierten Spezialisten und oft sind diese Vorlagen dann doch nicht mit der Praxis wirklich kompatibel und führen zu mehr Verwirrung als, dass sie helfen. Es kommt Ende meist wieder auf die Kreativität des Einzelnen an.&lt;/p&gt;  &lt;p&gt;Natürlich gibt es noch das Versprechen der Dokumentationsgeneratoren. Auch ich verwende gern solche automatisierten Tools, um eine Microsoft Business Intelligence Lösung zu &quot;dokumentieren&quot;. Meist auf Basis der Analysis Management Objects entwickle ich kleine Helfer, welche dann entsprechende Repositories verwalten. Nur, ist das wirklich Dokumentation? Die gleiche Frage stellt sich mir bei vielen IT-Infrastruktur Visualisierungstools. Schicke Poster. Wo ist der konkrete Nutzen?&lt;/p&gt;  &lt;p&gt;Stellen wir uns mal die total esoterische Frage: Was ist überhaupt der ganz konkrete Nutzen von Dokumentation ?&lt;/p&gt;  &lt;p&gt;Hey, wer hat da gelacht?&lt;/p&gt;  &lt;p&gt;Ich glaube, dass gerade diese Frage bzw. die Tatsache, dass sie häufig nicht spontan und konkret beantwortet werden kann, das primäre Problem bei der Erstellung einer (nützlichen) Dokumentation ist. Weil wenn immer klar wäre, was denn nun in einer Dokumentation erwartet werden würde, dann würde vielen armen Seelen die Erstellung einer solchen wesentlich leichter fallen.&lt;/p&gt;  &lt;p&gt;Also, was ist der konkrete Nutzen einer Dokumentation? Wozu braucht man so etwas überhaupt?&lt;/p&gt;  &lt;p&gt;Nein, so klar ist das nämlich gar nicht! Die Antwort kann nicht lauten: Um zu dokumentieren. :-)&lt;/p&gt;  &lt;p&gt;Eine Dokumentation soll ja etwas bewirken können. Eine Wirksamkeit haben. Und zwar, wenn etwas geändert werden muss bzw. wenn etwas schief geht. Natürlich wird das nie im gerade aktuellem Projekt passieren. Also, dass jemand was ändern möchte. Später. oder dass gar etwas schief geht. Versprochen.&lt;/p&gt;  &lt;p&gt;Nennen wir diese möglichen Einsatzzwecke einer Dokumentation doch einfach mal Risiken. Für mich sind die Folgen einer Änderung oder der Problemfall zukünftige Risiken, welche wir heute bereits verwalten müssen. Wir müssen Maßnahmen ergreifen, um diese Risiken zu minimieren. Und schwupps sind wir beim &lt;a href=&quot;http://de.wikipedia.org/wiki/Risikomanagement&quot; target=&quot;_blank&quot;&gt;Risikomanagement&lt;/a&gt; angekommen.&lt;/p&gt;  &lt;p&gt;Wie steht es bei Wikipedia so schön: &quot;&lt;b&gt;Risikomanagement&lt;/b&gt; umfasst sämtliche Maßnahmen zur systematischen Erkennung, Analyse, Bewertung, Überwachung und Kontrolle von Risiken.&quot;&lt;/p&gt;  &lt;p&gt;Risikomanagement hat nichts mit Schwarzmalerei zu tun. Ganz im Gegenteil. Es ist für mich eine erstrebenswerte Form von Komfort im Projekt und auch gerade für den späteren Betrieb als auch weitere Anpassungen. Und idealerweise das alles nicht durch mich. Womit wir bei einem weiteren Risiko wären: Der ehemalige Berater ist aus welchen Gründen auch immer nicht verfügbar bzw. kann sich an nichts mehr erinnern. Welche Risiken entstehen dadurch und müssen durch welche Maßnahmen verhindert werden?&lt;/p&gt;  &lt;p&gt;Eine verwandte Disziplin zur Dokumentation ist das sogenannte Betriebshandbuch. Hier ist der spätere Nutzen bereits im Namen dokumentiert. (Kleines Wortspiel. öhm. )&lt;/p&gt;  &lt;p&gt;Zurück zur Dokumentation. Ich möchte hier jetzt keine x-te Vorlage für eine gute Dokumentation liefern. Vielmehr den Ansatz, dass sich bei der Planung und Erstellung einer Dokumentation erst mal bewusst gemacht werden muss, welche möglichen Risiken damit verringert bzw. verhindert werden sollen.&lt;/p&gt;  &lt;p&gt;Beispiel. Klar soll eine Dokumentation eines Stück Codes helfen, dass er einfacher geändert werden kann. Nur das ist NICHT der eigentlich Nutzen. Der Nutzen ist, dass&lt;/p&gt;  &lt;p&gt;a.) die Änderung schneller, einfacher und damit günstiger wird. (Risiko der Kosten)&lt;/p&gt;  &lt;p&gt;b.) und, dass sie ohne unvorhersehbare Folgen für den Betrieb der gesamten Lösung sein wird. (Risiko der Katastrophe.)&lt;/p&gt;  &lt;p&gt;Es ist zu einfach jetzt zu sagen, dass das doch klar ist. Vielmehr ist es so, dass gerade das Spiegeln von möglichen Risiken an den notwendigen Maßnahmen die Erstellung einer wirksamen Dokumentation deutlich vereinfacht. Des Weiteren wird die Pflege einer Dokumentation deutlich vereinfacht, weil &quot;das Thema&quot; klar ist. Wer kennt nicht noch die Aufsätze von früher mit dem Hinweis &quot;Thema verfehlt.&quot;?&lt;/p&gt;  &lt;p&gt;Jeder Teil einer wie immer gearteten Dokumentation sollte helfen Risiken zu minimieren. Da hat auch das IT-Poster seinen Sinn, da man sich schnell einen Überblick verschaffen kann (Spart Einarbeitungszeit) und das SQL Server BI Tool hilft die Details im Auge zu haben.&lt;/p&gt;  &lt;p&gt;Also stellen sich beim Erstellen einer guten Dokumentation die Fragen nach dem WAS? und dem WIE? soll etwas dokumentiert werden, damit möglichst viele Risiken ausgeschlossen werden können.&lt;/p&gt;  &lt;p&gt;Hoffe, dass diese paar Zeilen dem einen oder anderem helfen werden, um eine Dokumentation wirksamer und einfacher zu erstellen.&lt;/p&gt;</description>
			<content:encoded><![CDATA[<p>Heute mal was ganz anderes. Liegt mir gerade auf dem Herzen.</p>  <p>Lasst uns über Dokumentation in Projekten und beim späteren Betrieb der Lösung sprechen. Hey, jetzt nicht gleich umschalten. :-)</p>  <p>Über Dokumentation spricht keiner gerne. Sie hat den Ruf, dass das Erstellen meist im Weg steht und als lästige Pflicht gesehen wird. Klar wird jeder sofort den Nutzen einer Dokumentation nicht in Frage stellen wollen, dennoch ist sie das Stiefkind vieler Projekte. </p>  <p>Woran liegt das? </p>  <p>Meine These dazu ist, dass das Dokumentieren von Lösungen als so unangenehm wahrgenommen wird, weil vielen einfach nicht immer wirklich klar ist, was denn nun wie dokumentiert werden muss. Vorlagen existieren meist nur bei großen Organisationsstrukturen wie Konzernen und Behörden oder zertifizierten Spezialisten und oft sind diese Vorlagen dann doch nicht mit der Praxis wirklich kompatibel und führen zu mehr Verwirrung als, dass sie helfen. Es kommt Ende meist wieder auf die Kreativität des Einzelnen an.</p>  <p>Natürlich gibt es noch das Versprechen der Dokumentationsgeneratoren. Auch ich verwende gern solche automatisierten Tools, um eine Microsoft Business Intelligence Lösung zu "dokumentieren". Meist auf Basis der Analysis Management Objects entwickle ich kleine Helfer, welche dann entsprechende Repositories verwalten. Nur, ist das wirklich Dokumentation? Die gleiche Frage stellt sich mir bei vielen IT-Infrastruktur Visualisierungstools. Schicke Poster. Wo ist der konkrete Nutzen?</p>  <p>Stellen wir uns mal die total esoterische Frage: Was ist überhaupt der ganz konkrete Nutzen von Dokumentation ?</p>  <p>Hey, wer hat da gelacht?</p>  <p>Ich glaube, dass gerade diese Frage bzw. die Tatsache, dass sie häufig nicht spontan und konkret beantwortet werden kann, das primäre Problem bei der Erstellung einer (nützlichen) Dokumentation ist. Weil wenn immer klar wäre, was denn nun in einer Dokumentation erwartet werden würde, dann würde vielen armen Seelen die Erstellung einer solchen wesentlich leichter fallen.</p>  <p>Also, was ist der konkrete Nutzen einer Dokumentation? Wozu braucht man so etwas überhaupt?</p>  <p>Nein, so klar ist das nämlich gar nicht! Die Antwort kann nicht lauten: Um zu dokumentieren. :-)</p>  <p>Eine Dokumentation soll ja etwas bewirken können. Eine Wirksamkeit haben. Und zwar, wenn etwas geändert werden muss bzw. wenn etwas schief geht. Natürlich wird das nie im gerade aktuellem Projekt passieren. Also, dass jemand was ändern möchte. Später. oder dass gar etwas schief geht. Versprochen.</p>  <p>Nennen wir diese möglichen Einsatzzwecke einer Dokumentation doch einfach mal Risiken. Für mich sind die Folgen einer Änderung oder der Problemfall zukünftige Risiken, welche wir heute bereits verwalten müssen. Wir müssen Maßnahmen ergreifen, um diese Risiken zu minimieren. Und schwupps sind wir beim <a href="http://de.wikipedia.org/wiki/Risikomanagement" target="_blank">Risikomanagement</a> angekommen.</p>  <p>Wie steht es bei Wikipedia so schön: "<b>Risikomanagement</b> umfasst sämtliche Maßnahmen zur systematischen Erkennung, Analyse, Bewertung, Überwachung und Kontrolle von Risiken."</p>  <p>Risikomanagement hat nichts mit Schwarzmalerei zu tun. Ganz im Gegenteil. Es ist für mich eine erstrebenswerte Form von Komfort im Projekt und auch gerade für den späteren Betrieb als auch weitere Anpassungen. Und idealerweise das alles nicht durch mich. Womit wir bei einem weiteren Risiko wären: Der ehemalige Berater ist aus welchen Gründen auch immer nicht verfügbar bzw. kann sich an nichts mehr erinnern. Welche Risiken entstehen dadurch und müssen durch welche Maßnahmen verhindert werden?</p>  <p>Eine verwandte Disziplin zur Dokumentation ist das sogenannte Betriebshandbuch. Hier ist der spätere Nutzen bereits im Namen dokumentiert. (Kleines Wortspiel. öhm. )</p>  <p>Zurück zur Dokumentation. Ich möchte hier jetzt keine x-te Vorlage für eine gute Dokumentation liefern. Vielmehr den Ansatz, dass sich bei der Planung und Erstellung einer Dokumentation erst mal bewusst gemacht werden muss, welche möglichen Risiken damit verringert bzw. verhindert werden sollen.</p>  <p>Beispiel. Klar soll eine Dokumentation eines Stück Codes helfen, dass er einfacher geändert werden kann. Nur das ist NICHT der eigentlich Nutzen. Der Nutzen ist, dass</p>  <p>a.) die Änderung schneller, einfacher und damit günstiger wird. (Risiko der Kosten)</p>  <p>b.) und, dass sie ohne unvorhersehbare Folgen für den Betrieb der gesamten Lösung sein wird. (Risiko der Katastrophe.)</p>  <p>Es ist zu einfach jetzt zu sagen, dass das doch klar ist. Vielmehr ist es so, dass gerade das Spiegeln von möglichen Risiken an den notwendigen Maßnahmen die Erstellung einer wirksamen Dokumentation deutlich vereinfacht. Des Weiteren wird die Pflege einer Dokumentation deutlich vereinfacht, weil "das Thema" klar ist. Wer kennt nicht noch die Aufsätze von früher mit dem Hinweis "Thema verfehlt."?</p>  <p>Jeder Teil einer wie immer gearteten Dokumentation sollte helfen Risiken zu minimieren. Da hat auch das IT-Poster seinen Sinn, da man sich schnell einen Überblick verschaffen kann (Spart Einarbeitungszeit) und das SQL Server BI Tool hilft die Details im Auge zu haben.</p>  <p>Also stellen sich beim Erstellen einer guten Dokumentation die Fragen nach dem WAS? und dem WIE? soll etwas dokumentiert werden, damit möglichst viele Risiken ausgeschlossen werden können.</p>  <p>Hoffe, dass diese paar Zeilen dem einen oder anderem helfen werden, um eine Dokumentation wirksamer und einfacher zu erstellen.</p>]]></content:encoded>
								<comments>https://www.insidesql.org/blogs/saschalorenz/2012/06/20/dokumentation-als-teil-eines-risikomanagement#comments</comments>
			<wfw:commentRss>https://www.insidesql.org/blogs/saschalorenz/?tempskin=_rss2&#38;disp=comments&#38;p=3285</wfw:commentRss>
		</item>
				<item>
			<title>SQL Server Versionen &#38; Editionen im Vergleich &#8211; Entscheidung vor dem BI Projekt?</title>
			<link>https://www.insidesql.org/blogs/saschalorenz/2011/06/02/sql-server-versionen-editionen-im</link>
			<pubDate>Thu, 02 Jun 2011 17:48:00 +0000</pubDate>			<dc:creator>Sascha Lorenz</dc:creator>
			<category domain="main">SQL Server</category>
<category domain="alt">Projektmanagement</category>
<category domain="alt">Business Intelligence</category>			<guid isPermaLink="false">2922@https://www.insidesql.org/blogs/</guid>
						<description>&lt;p&gt;Immer wieder werde ich gefragt, welche Edition denn nun für ein BI Vorhaben bzw. Projekt die geeignete sei? Hintergrund dieser Frage ist häufig die Entscheidung zwischen der sogenannten &quot;Standard&quot; und &quot;Enterprise&quot; Edition.&lt;/p&gt;
&lt;p&gt;Des Weiteren kommt häufig die Frage, ob sich denn der Wechsel auf eine aktuellere Version lohnen würde? Viele Kunden von Microsoft haben einen SQL Server 2008 im Einsatz und noch mehr einen SQL Server 2005. Und natürlich gibt es noch durchaus Anwender des SQL Server 7 &amp;amp; 2000, aber da stellt sich aus Supportsicht die Frage eigentlich nicht.&lt;/p&gt;
&lt;p&gt;Oft kommt auch noch die Frage, ob sich denn das Warten auf die nächste Version lohnen würde. Zurzeit warten wir ja alle ganz gespannt auf SQL Server 2011 aka Denali.&lt;/p&gt;
&lt;p&gt;Und natürlich ist der Fragesteller dann immer schnell bei der Hand die guten alten &quot;Best Practices&quot; zu bemühen. Also da muss es doch auch so eine richtig vs. falsch Regel für geben. Wieder mal gibt es diese nicht, denn die Antwort auf so eine Frage kann natürlich nur das wiederum gute alte &quot;Kommt ganz drauf an.&quot; sein.&lt;/p&gt;
&lt;p&gt;Ach ja, das Thema Lizenzierung lassen wir mal für den Moment ganz außen vor, ist aber nicht weniger spannend! Glaubt mir!&lt;/p&gt;
&lt;p&gt;Ich will hier nun keinen detaillierten Vergleich der Editionen durchführen. Dafür hat Microsoft selbst gute Seiten. Siehe unten.&lt;/p&gt;
&lt;p&gt;Fangen wir mit der häufigsten Frage an. Welche Edition für das Projekt?&lt;/p&gt;
&lt;p&gt;Immer wieder habe ich in Workshops und Proof-of-Concepts die Diskussion, dass Kunden &amp;amp; Partner erwarten die gerade für sie &quot;selbstverständlichen&quot; Features in der Standard Edition vorzufinden. Mein Einwand ist dann meist, dass es sich da um ein semantisches Missverständnis handelt. Nicht nur, dass der SQL Server mit seinem Namen eh schon ein Problem hat, da die wenigsten BDM bei etwas mit diesem Namen eine komplette &quot;Data Plattform inkl. BI&quot; vermuten, sondern auch &quot;Standard&quot; in Abgrenzung zu &quot;Enterprise&quot; ist verwirrend in der Kommunikation.&lt;/p&gt;
&lt;p&gt;Daher beantworte ich diese Frage meist damit, dass in meinem Verständnis die &quot;Enterprise&quot; Edition die eigentliche &quot;Standard&quot; Edition ist. Schon verwirrend, was für Labels der Hersteller da auf seine Boxen klebt. :-)&lt;/p&gt;
&lt;p&gt;Die eigentliche &quot;Enterprise&quot; Edition, also das was viele damit verbinden (GROSSE Umgebungen.), ist für mich die &quot;Data Center&quot; Edition. In der &quot;Data Center&quot; Edition liegt zum Beispiel die Premium Edition von StreamInsight bei. Die wird benötigt für Umgebungen mit mehr als 5000 Events pro Sekunde und einer Latenz unter 5 Sek. Das ist sehr wahrscheinlich gar nicht so selten. Wesentlich bekannter ist die Eigenschaft, dass sie tatsächlich alle verfügbaren CPUs des Betriebssystems unterstützt. Und wem das nicht genug ist, kann ja gerne mal auf die &quot;Fast Track&quot; Konfiguration und &quot;Parallel Data Warehouse&quot; Edition hinweisen!&lt;/p&gt;
&lt;p&gt;Nur was sind denn jetzt die wesentlichen Unterschiede in den Editionen (Standard vs. Enterprise) bezogen auf Business Intelligence Projekte?&lt;/p&gt;
&lt;p&gt;Unterscheiden wir mal die einzelnen Dienste des SQL Server 2008 R2:&lt;/p&gt;
&lt;p&gt;In der &lt;strong&gt;Datenbank Engine&lt;/strong&gt; sind die wesentlichen Unterschiede in der &quot;Enterprise&quot; Edition:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;wichtig für &lt;strong&gt;Data Warehouse&lt;/strong&gt; Umgebungen       
&lt;ul&gt;
&lt;li&gt;Partitionierung in der relationalen Datenbank &lt;/li&gt;
&lt;li&gt;Parallele Indexvorgänge &lt;/li&gt;
&lt;li&gt;volle Unterstützung von Indizierte Sichten &lt;/li&gt;
&lt;li&gt;Datenkomprimierung &lt;/li&gt;
&lt;li&gt;Optimierung von Sternjoinabfragen &lt;/li&gt;
&lt;li&gt;SQL Server Audit &lt;/li&gt;
&lt;li&gt;Transparente Datenbankverschlüsselung &lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;praktisch für &lt;strong&gt;Integrationsprozesse&lt;/strong&gt; (ETL/ELT) im Quellsystem       
&lt;ul&gt;
&lt;li&gt;Datenbank-Momentaufnahmen (Snapshots) &lt;/li&gt;
&lt;li&gt;Change Data Capture &lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;In den SQL Server &lt;strong&gt;Integration Services&lt;/strong&gt; (SSIS) kommt folgendes hinzu:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;High-Performance-Oracle-Ziel &lt;/li&gt;
&lt;li&gt;High-Performance-Teradata-Ziel &lt;/li&gt;
&lt;li&gt;SAP BW-Quelle und -Ziel (ja, ja. so etwas gibst!) &lt;/li&gt;
&lt;li&gt;Zieladapter des Data Mining-Modelltrainings &lt;/li&gt;
&lt;li&gt;Zieladapter für Dimensionsverarbeitung &lt;/li&gt;
&lt;li&gt;Zieladapter für Partitionsverarbeitung &lt;/li&gt;
&lt;li&gt;Persistente Suchen &lt;/li&gt;
&lt;li&gt;Fuzzygruppierung und -suche &lt;/li&gt;
&lt;li&gt;Ausdrucksextrahierung und -suche &lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Bei den &lt;strong&gt;Analysis Services&lt;/strong&gt; (SSAS) würde uns ohne &quot;Enterprise&quot; Edition folgendes fehlen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Partitionierte Cubes &lt;/li&gt;
&lt;li&gt;Finanzaggregationen &amp;amp; Kontointelligenz &lt;/li&gt;
&lt;li&gt;Semiadditive Measures &lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Vorsicht, das liest sich hier für die SSAS jetzt von der Menge her nicht sehr tragisch, kann einen Architekten bzw. Berater aber empfindlich eingrenzen und leicht zum Misserfolg eines Projektes führen!&lt;/p&gt;
&lt;p&gt;Und bei den &lt;strong&gt;Reporting Services&lt;/strong&gt; fehlt uns eigentlich &quot;nur&quot; das Feature &quot;Datengesteuerte Berichtsabonnements&quot;, aber auch das kann fehlen. Und immer daran denken, dass nachmachen nicht gilt! :-)&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Master Data Services&lt;/strong&gt; und &lt;strong&gt;PowerPivot für SharePoint&lt;/strong&gt; haben wir nur ab der &quot;Enterprise Edition&quot;!&lt;/p&gt;
&lt;p&gt;Wie kann nun im Rahmen eines Proof-of-Concepts entschieden oder in den ersten Projekt Phasen eine belastbare Entscheidung herbeigeführt werden für die Auswahl einer Edition? Wie oben bereits gesehen, hängt die Auswahl der Edition stark von den Anforderungen ab! Daher ist es sehr wichtig den Anforderungskatalog für das geplante Projekt durchzugehen und zu klären, ob echte Showstopper dabei sind. Sofern sich die Projektbeteiligten nicht einig sind, ob die Features wirklich benötigt werden, empfehle ich einen Piloten auf Basis der kostenlosen &quot;Evaluierung&quot; Edition aufzusetzen. Diese Edition hat den Umfang der &quot;Enterprise&quot; Edition.&lt;/p&gt;
&lt;p&gt;Nun zur Wahl der Version. Wichtig der Hinweis, dass diese Entscheidung, wenn sie denn tatsächlich ansteht, vor der Wahl einer Edition erfolgen sollte.&lt;/p&gt;
&lt;p&gt;Hier ist der Rat sehr einfach. Eigentlich sollte immer auf die aktuell verfügbare Version zurückgegriffen werden. Wenn bereits eine Version vorhanden ist und keine Möglichkeiten bestehen im Rahmen des Lizenzvertrages mit Microsoft auf die aktuelle Version zu wechseln, also eine nicht kostenneutrale Entscheidung ansteht, dann empfehle ich wieder auf Basis des Anforderungskatalogs zu klären, welche neuen Features benötigt werden.&lt;/p&gt;
&lt;p&gt;Ein häufiger Grund für den Wechsel von 2008 auf 2008 R2 waren in der Vergangenheit u. a. die zahlreichen Erweiterungen der Reporting Services.&lt;/p&gt;
&lt;p&gt;Ein Hinweis noch zur sogenannten &quot;Developer Edition&quot;, da diese relativ unbekannt ist. Mit dieser dürfen Entwickler bzw. BI Berater auf Entwicklungssystemen bzw. lokalen Rechner isoliert von den produktiven Systemen an der Lösung arbeiten. Solche extra Server sind bei anderen Herstellern immer recht kostenintensiv, bei Microsoft hat sich über Jahre ein Preis von unter 100? pro Lizenz gehalten. Das ist äußerst günstig und sollte in Projekten auf jeden Fall genutzt werden, da es zumindest keinen lizenztechnischen Grund gibt direkt auf dem produktiven Systemen die Lösung weiterzuentwickeln.&lt;/p&gt;
&lt;p&gt;Bei allen Angaben in diesem Post beziehe ich mich als Quelle auf diese Seite von Microsoft: &lt;a title=&quot;http://technet.microsoft.com/de-de/library/cc645993.aspx&quot; href=&quot;http://technet.microsoft.com/de-de/library/cc645993.aspx&quot;&gt;http://technet.microsoft.com/de-de/library/cc645993.aspx&lt;/a&gt;&lt;/p&gt;</description>
			<content:encoded><![CDATA[<p>Immer wieder werde ich gefragt, welche Edition denn nun für ein BI Vorhaben bzw. Projekt die geeignete sei? Hintergrund dieser Frage ist häufig die Entscheidung zwischen der sogenannten "Standard" und "Enterprise" Edition.</p>
<p>Des Weiteren kommt häufig die Frage, ob sich denn der Wechsel auf eine aktuellere Version lohnen würde? Viele Kunden von Microsoft haben einen SQL Server 2008 im Einsatz und noch mehr einen SQL Server 2005. Und natürlich gibt es noch durchaus Anwender des SQL Server 7 &amp; 2000, aber da stellt sich aus Supportsicht die Frage eigentlich nicht.</p>
<p>Oft kommt auch noch die Frage, ob sich denn das Warten auf die nächste Version lohnen würde. Zurzeit warten wir ja alle ganz gespannt auf SQL Server 2011 aka Denali.</p>
<p>Und natürlich ist der Fragesteller dann immer schnell bei der Hand die guten alten "Best Practices" zu bemühen. Also da muss es doch auch so eine richtig vs. falsch Regel für geben. Wieder mal gibt es diese nicht, denn die Antwort auf so eine Frage kann natürlich nur das wiederum gute alte "Kommt ganz drauf an." sein.</p>
<p>Ach ja, das Thema Lizenzierung lassen wir mal für den Moment ganz außen vor, ist aber nicht weniger spannend! Glaubt mir!</p>
<p>Ich will hier nun keinen detaillierten Vergleich der Editionen durchführen. Dafür hat Microsoft selbst gute Seiten. Siehe unten.</p>
<p>Fangen wir mit der häufigsten Frage an. Welche Edition für das Projekt?</p>
<p>Immer wieder habe ich in Workshops und Proof-of-Concepts die Diskussion, dass Kunden &amp; Partner erwarten die gerade für sie "selbstverständlichen" Features in der Standard Edition vorzufinden. Mein Einwand ist dann meist, dass es sich da um ein semantisches Missverständnis handelt. Nicht nur, dass der SQL Server mit seinem Namen eh schon ein Problem hat, da die wenigsten BDM bei etwas mit diesem Namen eine komplette "Data Plattform inkl. BI" vermuten, sondern auch "Standard" in Abgrenzung zu "Enterprise" ist verwirrend in der Kommunikation.</p>
<p>Daher beantworte ich diese Frage meist damit, dass in meinem Verständnis die "Enterprise" Edition die eigentliche "Standard" Edition ist. Schon verwirrend, was für Labels der Hersteller da auf seine Boxen klebt. :-)</p>
<p>Die eigentliche "Enterprise" Edition, also das was viele damit verbinden (GROSSE Umgebungen.), ist für mich die "Data Center" Edition. In der "Data Center" Edition liegt zum Beispiel die Premium Edition von StreamInsight bei. Die wird benötigt für Umgebungen mit mehr als 5000 Events pro Sekunde und einer Latenz unter 5 Sek. Das ist sehr wahrscheinlich gar nicht so selten. Wesentlich bekannter ist die Eigenschaft, dass sie tatsächlich alle verfügbaren CPUs des Betriebssystems unterstützt. Und wem das nicht genug ist, kann ja gerne mal auf die "Fast Track" Konfiguration und "Parallel Data Warehouse" Edition hinweisen!</p>
<p>Nur was sind denn jetzt die wesentlichen Unterschiede in den Editionen (Standard vs. Enterprise) bezogen auf Business Intelligence Projekte?</p>
<p>Unterscheiden wir mal die einzelnen Dienste des SQL Server 2008 R2:</p>
<p>In der <strong>Datenbank Engine</strong> sind die wesentlichen Unterschiede in der "Enterprise" Edition:</p>
<ul>
<li>wichtig für <strong>Data Warehouse</strong> Umgebungen       
<ul>
<li>Partitionierung in der relationalen Datenbank </li>
<li>Parallele Indexvorgänge </li>
<li>volle Unterstützung von Indizierte Sichten </li>
<li>Datenkomprimierung </li>
<li>Optimierung von Sternjoinabfragen </li>
<li>SQL Server Audit </li>
<li>Transparente Datenbankverschlüsselung </li>
</ul>
</li>
<li>praktisch für <strong>Integrationsprozesse</strong> (ETL/ELT) im Quellsystem       
<ul>
<li>Datenbank-Momentaufnahmen (Snapshots) </li>
<li>Change Data Capture </li>
</ul>
</li>
</ul>
<p>In den SQL Server <strong>Integration Services</strong> (SSIS) kommt folgendes hinzu:</p>
<ul>
<li>High-Performance-Oracle-Ziel </li>
<li>High-Performance-Teradata-Ziel </li>
<li>SAP BW-Quelle und -Ziel (ja, ja. so etwas gibst!) </li>
<li>Zieladapter des Data Mining-Modelltrainings </li>
<li>Zieladapter für Dimensionsverarbeitung </li>
<li>Zieladapter für Partitionsverarbeitung </li>
<li>Persistente Suchen </li>
<li>Fuzzygruppierung und -suche </li>
<li>Ausdrucksextrahierung und -suche </li>
</ul>
<p>Bei den <strong>Analysis Services</strong> (SSAS) würde uns ohne "Enterprise" Edition folgendes fehlen:</p>
<ul>
<li>Partitionierte Cubes </li>
<li>Finanzaggregationen &amp; Kontointelligenz </li>
<li>Semiadditive Measures </li>
</ul>
<p>Vorsicht, das liest sich hier für die SSAS jetzt von der Menge her nicht sehr tragisch, kann einen Architekten bzw. Berater aber empfindlich eingrenzen und leicht zum Misserfolg eines Projektes führen!</p>
<p>Und bei den <strong>Reporting Services</strong> fehlt uns eigentlich "nur" das Feature "Datengesteuerte Berichtsabonnements", aber auch das kann fehlen. Und immer daran denken, dass nachmachen nicht gilt! :-)</p>
<p><strong>Master Data Services</strong> und <strong>PowerPivot für SharePoint</strong> haben wir nur ab der "Enterprise Edition"!</p>
<p>Wie kann nun im Rahmen eines Proof-of-Concepts entschieden oder in den ersten Projekt Phasen eine belastbare Entscheidung herbeigeführt werden für die Auswahl einer Edition? Wie oben bereits gesehen, hängt die Auswahl der Edition stark von den Anforderungen ab! Daher ist es sehr wichtig den Anforderungskatalog für das geplante Projekt durchzugehen und zu klären, ob echte Showstopper dabei sind. Sofern sich die Projektbeteiligten nicht einig sind, ob die Features wirklich benötigt werden, empfehle ich einen Piloten auf Basis der kostenlosen "Evaluierung" Edition aufzusetzen. Diese Edition hat den Umfang der "Enterprise" Edition.</p>
<p>Nun zur Wahl der Version. Wichtig der Hinweis, dass diese Entscheidung, wenn sie denn tatsächlich ansteht, vor der Wahl einer Edition erfolgen sollte.</p>
<p>Hier ist der Rat sehr einfach. Eigentlich sollte immer auf die aktuell verfügbare Version zurückgegriffen werden. Wenn bereits eine Version vorhanden ist und keine Möglichkeiten bestehen im Rahmen des Lizenzvertrages mit Microsoft auf die aktuelle Version zu wechseln, also eine nicht kostenneutrale Entscheidung ansteht, dann empfehle ich wieder auf Basis des Anforderungskatalogs zu klären, welche neuen Features benötigt werden.</p>
<p>Ein häufiger Grund für den Wechsel von 2008 auf 2008 R2 waren in der Vergangenheit u. a. die zahlreichen Erweiterungen der Reporting Services.</p>
<p>Ein Hinweis noch zur sogenannten "Developer Edition", da diese relativ unbekannt ist. Mit dieser dürfen Entwickler bzw. BI Berater auf Entwicklungssystemen bzw. lokalen Rechner isoliert von den produktiven Systemen an der Lösung arbeiten. Solche extra Server sind bei anderen Herstellern immer recht kostenintensiv, bei Microsoft hat sich über Jahre ein Preis von unter 100? pro Lizenz gehalten. Das ist äußerst günstig und sollte in Projekten auf jeden Fall genutzt werden, da es zumindest keinen lizenztechnischen Grund gibt direkt auf dem produktiven Systemen die Lösung weiterzuentwickeln.</p>
<p>Bei allen Angaben in diesem Post beziehe ich mich als Quelle auf diese Seite von Microsoft: <a title="http://technet.microsoft.com/de-de/library/cc645993.aspx" href="http://technet.microsoft.com/de-de/library/cc645993.aspx">http://technet.microsoft.com/de-de/library/cc645993.aspx</a></p>]]></content:encoded>
								<comments>https://www.insidesql.org/blogs/saschalorenz/2011/06/02/sql-server-versionen-editionen-im#comments</comments>
			<wfw:commentRss>https://www.insidesql.org/blogs/saschalorenz/?tempskin=_rss2&#38;disp=comments&#38;p=2922</wfw:commentRss>
		</item>
				<item>
			<title>SSIS (Integration Services) &#8211; ETL vs. ELT L&#246;sung?</title>
			<link>https://www.insidesql.org/blogs/saschalorenz/2011/05/04/ssis-integration-services-ndash-etl</link>
			<pubDate>Wed, 04 May 2011 20:19:00 +0000</pubDate>			<dc:creator>Sascha Lorenz</dc:creator>
			<category domain="main">SQL Server</category>
<category domain="alt">Projektmanagement</category>
<category domain="alt">Business Intelligence</category>			<guid isPermaLink="false">2890@https://www.insidesql.org/blogs/</guid>
						<description>&lt;p&gt;Und wieder war es ein Meeting, welches mich zu einen Blogpost animiert.&lt;/p&gt;  &lt;p&gt;Wir sprachen über die Einführung eines Data Warehouses, ETL etc. pp. und dann kam da einer mit einer ganz tollen Frage: Was ist denn mit ELT und wo sei der Unterschied? Und ob das denn die Integration Services auch könnten? Ist doch die Zukunft des Integrationsprozesses, sagt doch der andere Hersteller. Also wäre ja zu erwarten, dass Microsoft solche Innovationen unterstützt. Der klassische ETL Prozess wäre ja quasi von gestern und mit ELT dann ja auch dazu noch überflüssig geworden.&lt;/p&gt;  &lt;p&gt;Erwartungsvolle Gesichter in der Runde. Was ist denn nun ELT und kann das der SQL Server? Ich liebe meinen Job. &lt;/p&gt;  &lt;p&gt;Also, &lt;a href=&quot;http://saschalorenz.blogspot.com/2011/04/ssis-integration-services-als-etl.html&quot; target=&quot;_blank&quot;&gt;klassisches ETL (Extract, Transform, Load)&lt;/a&gt; meint, stark vereinfacht ausgedrückt, dass Daten aus verschiedenen Vorsystemen extrahiert werden. Diese werden in der Regel in Form von &quot;Datenpaketen&quot; in einer sogenannten &lt;a href=&quot;http://saschalorenz.blogspot.com/2011/03/landing-area-zone-im-sql-server-data.html&quot; target=&quot;_blank&quot;&gt;Landing Zone&lt;/a&gt; gesammelt. Von dort aus werden die Pakete i. d. Regel mehrstufig weiterverarbeitet, sprich transformiert. Der letzte Schritt ist das Laden der Daten in das relationale Data Warehouse, wobei dann noch die Historisierung von Daten durchgeführt werden kann.&amp;#160; &lt;/p&gt;  &lt;p&gt;Was kann nun eine ELT Lösung dazu Innovatives beitragen? Das Offensichtliche zuerst. ELT steht für Extract, Load &amp;amp; Transform. Ok, ist halt vertauscht. Und? :-)&lt;/p&gt;  &lt;p&gt;Die Idee dabei ist, dass Daten wiederum zuerst aus Vorsystemen extrahiert werden. Die Methoden, Konzepte, Ideen und auch Herausforderungen sind 100% identisch zur ETL Welt. Auch können diese Daten in Form von Datenpaketen organisiert werden. Nur dann kommt der wesentliche Unterschied! Die Daten werden beim ELT Ansatz gleich wieder in ein relationales Datenbanken System geladen. Häufig ist es das System, welches auch das eigentliche Data Warehouse hält. Und auf diesem System werden die Daten mittels SQL Statements transformiert. Das ist schon alles. &lt;/p&gt;  &lt;p&gt;Ok, ok. wozu jetzt die ganze Aufregung? Dazu müssen wir noch ein wenig mehr ins Detail gehen beim ETL Prozess. Beim ETL findet häufig eine Verarbeitung der Daten außerhalb einer relationalen Datenbank statt. In der Regel werden die Daten zeilenweise verarbeitet. In den Integration Services wird das durch den konsequenten Einsatz der Datenflusskomponente und des RAW-Dateiformates erreicht. Ab einer sehr großen Datenmenge ist dieses Vorgehen deutlich schneller als die relationale Engine zu bemühen. &lt;/p&gt;  &lt;p&gt;Bei ELT gibt es aber keine extra Verarbeitungsengine, sondern &quot;alles&quot; findet innerhalb einer relationalen Datenbank statt. Es wird damit eine Technologie &quot;gespart&quot;. Das ist der häufig ins Feld geführte Vorteil einer ELT Architektur. In der Praxis heißt das auch oft, dass ein extra System gespart wird.&lt;/p&gt;  &lt;p&gt;Meine 2 Cent dazu sind:    &lt;br /&gt;ELT klingt gut, kann es sogar sein, ja wenn. die Rahmenbedingungen stimmen! Wenn ich keine wirklich komplexe und unübersichtliche Umgebung habe. Des Weiteren sollte die Anzahl der Vorsysteme überschaubar sein. Und, steht ja schon oben, die Datenmenge sollte auch gewisse Grenzen haben (und nein, da gibt es keine one-size-fits-all Antwort drauf!).&lt;/p&gt;  &lt;p&gt;Die Wahrheit ist, dass es da draußen eine Unmenge an ETL Prozessen gibt, welche sehr wahrscheinlich ELT Prozesse sind. Und bisher hat es keinen gestört! :-) &lt;/p&gt;  &lt;p&gt;Ach ja, und natürlich lassen sich auch ELT Integrationsprozesse mit dem Microsoft SQL Server abbilden. Alles eine Frage der Architektur!&lt;/p&gt;</description>
			<content:encoded><![CDATA[<p>Und wieder war es ein Meeting, welches mich zu einen Blogpost animiert.</p>  <p>Wir sprachen über die Einführung eines Data Warehouses, ETL etc. pp. und dann kam da einer mit einer ganz tollen Frage: Was ist denn mit ELT und wo sei der Unterschied? Und ob das denn die Integration Services auch könnten? Ist doch die Zukunft des Integrationsprozesses, sagt doch der andere Hersteller. Also wäre ja zu erwarten, dass Microsoft solche Innovationen unterstützt. Der klassische ETL Prozess wäre ja quasi von gestern und mit ELT dann ja auch dazu noch überflüssig geworden.</p>  <p>Erwartungsvolle Gesichter in der Runde. Was ist denn nun ELT und kann das der SQL Server? Ich liebe meinen Job. </p>  <p>Also, <a href="http://saschalorenz.blogspot.com/2011/04/ssis-integration-services-als-etl.html" target="_blank">klassisches ETL (Extract, Transform, Load)</a> meint, stark vereinfacht ausgedrückt, dass Daten aus verschiedenen Vorsystemen extrahiert werden. Diese werden in der Regel in Form von "Datenpaketen" in einer sogenannten <a href="http://saschalorenz.blogspot.com/2011/03/landing-area-zone-im-sql-server-data.html" target="_blank">Landing Zone</a> gesammelt. Von dort aus werden die Pakete i. d. Regel mehrstufig weiterverarbeitet, sprich transformiert. Der letzte Schritt ist das Laden der Daten in das relationale Data Warehouse, wobei dann noch die Historisierung von Daten durchgeführt werden kann.&#160; </p>  <p>Was kann nun eine ELT Lösung dazu Innovatives beitragen? Das Offensichtliche zuerst. ELT steht für Extract, Load &amp; Transform. Ok, ist halt vertauscht. Und? :-)</p>  <p>Die Idee dabei ist, dass Daten wiederum zuerst aus Vorsystemen extrahiert werden. Die Methoden, Konzepte, Ideen und auch Herausforderungen sind 100% identisch zur ETL Welt. Auch können diese Daten in Form von Datenpaketen organisiert werden. Nur dann kommt der wesentliche Unterschied! Die Daten werden beim ELT Ansatz gleich wieder in ein relationales Datenbanken System geladen. Häufig ist es das System, welches auch das eigentliche Data Warehouse hält. Und auf diesem System werden die Daten mittels SQL Statements transformiert. Das ist schon alles. </p>  <p>Ok, ok. wozu jetzt die ganze Aufregung? Dazu müssen wir noch ein wenig mehr ins Detail gehen beim ETL Prozess. Beim ETL findet häufig eine Verarbeitung der Daten außerhalb einer relationalen Datenbank statt. In der Regel werden die Daten zeilenweise verarbeitet. In den Integration Services wird das durch den konsequenten Einsatz der Datenflusskomponente und des RAW-Dateiformates erreicht. Ab einer sehr großen Datenmenge ist dieses Vorgehen deutlich schneller als die relationale Engine zu bemühen. </p>  <p>Bei ELT gibt es aber keine extra Verarbeitungsengine, sondern "alles" findet innerhalb einer relationalen Datenbank statt. Es wird damit eine Technologie "gespart". Das ist der häufig ins Feld geführte Vorteil einer ELT Architektur. In der Praxis heißt das auch oft, dass ein extra System gespart wird.</p>  <p>Meine 2 Cent dazu sind:    <br />ELT klingt gut, kann es sogar sein, ja wenn. die Rahmenbedingungen stimmen! Wenn ich keine wirklich komplexe und unübersichtliche Umgebung habe. Des Weiteren sollte die Anzahl der Vorsysteme überschaubar sein. Und, steht ja schon oben, die Datenmenge sollte auch gewisse Grenzen haben (und nein, da gibt es keine one-size-fits-all Antwort drauf!).</p>  <p>Die Wahrheit ist, dass es da draußen eine Unmenge an ETL Prozessen gibt, welche sehr wahrscheinlich ELT Prozesse sind. Und bisher hat es keinen gestört! :-) </p>  <p>Ach ja, und natürlich lassen sich auch ELT Integrationsprozesse mit dem Microsoft SQL Server abbilden. Alles eine Frage der Architektur!</p>]]></content:encoded>
								<comments>https://www.insidesql.org/blogs/saschalorenz/2011/05/04/ssis-integration-services-ndash-etl#comments</comments>
			<wfw:commentRss>https://www.insidesql.org/blogs/saschalorenz/?tempskin=_rss2&#38;disp=comments&#38;p=2890</wfw:commentRss>
		</item>
				<item>
			<title>SSAS (Analysis Services) OLAP Cubes &#8211; Der Stern ist nicht der W&#252;rfel!</title>
			<link>https://www.insidesql.org/blogs/saschalorenz/2011/04/28/ssas-analysis-services-olap-cubes</link>
			<pubDate>Thu, 28 Apr 2011 14:11:00 +0000</pubDate>			<dc:creator>Sascha Lorenz</dc:creator>
			<category domain="main">SQL Server</category>
<category domain="alt">Projektmanagement</category>
<category domain="alt">Business Intelligence</category>			<guid isPermaLink="false">2840@https://www.insidesql.org/blogs/</guid>
						<description>&lt;p&gt;Das Geschäft als Berater bzw. als Coach besteht ja auch zum Teil daraus, dass man zur richtigen Zeit den richtigen Spruch bzw. Lehrsatz auf den Lippen hat.&lt;/p&gt;  &lt;p&gt;&lt;em&gt;&quot;Der Stern, die Schneeflocke oder die Galaxie ist nicht gleichzusetzen mit dem daraus entstehenden multidimensionalem Raum!&quot;&lt;/em&gt;&lt;/p&gt;  &lt;p&gt;Kurzfassung:&lt;/p&gt;  &lt;p align=&quot;center&quot;&gt;&lt;strong&gt;Der Stern ist nicht der Würfel!&lt;/strong&gt;&lt;/p&gt;  &lt;p align=&quot;center&quot;&gt;&lt;strong&gt;&lt;/strong&gt;&lt;/p&gt;  &lt;p&gt;&lt;a href=&quot;http://saschalorenz.blogspot.com/2011/02/coaches-hell-wie-entwickle-ich-denn.html&quot; target=&quot;_blank&quot;&gt;Viele Anwender der Analysis Services arbeiten aber gerne mit der Vorstellung&lt;/a&gt;, dass das Starschema nicht nur die Quelle darstellt, sondern auch, dass im Cube die Trennung zwischen Dimensionen und Fakten existiert. Dimensions- und Faktentabellen sind aber &quot;nur&quot; relationale Strukturen, welche als Datenquellen für den Würfel dienen. Viele Frontends, wie auch Excel, unterscheiden aber sehr deutlich in der Darstellung zwischen Attributen (Dimensionen) und Measures. Der eigentliche Cube bzw. der, wie ich finde korrektere Ausdruck, multidimensionale Raum haben aber ihre ganz eigene &quot;Logik&quot;. &lt;/p&gt;  &lt;p&gt;Wie kommen wir da jetzt raus? &lt;/p&gt;  &lt;p&gt;Muss nun jeder Endanwender eine hochesoterische MDX Schulung erhalten? Bitte nicht! Das führt nicht gerade zur Akzeptanz einer Lösung!&lt;/p&gt;  &lt;p&gt;Aber jeder, der sich für das Erstellen von OLAP Cubes mit den SQL Server Analysis Services interessiert, sollte frühzeitig in den &quot;echten&quot; multidimensionalen Raum einsteigen. Selbst wenn nie geplant ist mit MDX Berechnungen etc. pp. einzubauen, so ist das bloße Beschäftigen damit und Hinterfragen schon sehr nützlich, um auch die &quot;einfachen&quot; Funktionen von SSAS noch besser zu nutzen. Ehrlich!&lt;/p&gt;</description>
			<content:encoded><![CDATA[<p>Das Geschäft als Berater bzw. als Coach besteht ja auch zum Teil daraus, dass man zur richtigen Zeit den richtigen Spruch bzw. Lehrsatz auf den Lippen hat.</p>  <p><em>"Der Stern, die Schneeflocke oder die Galaxie ist nicht gleichzusetzen mit dem daraus entstehenden multidimensionalem Raum!"</em></p>  <p>Kurzfassung:</p>  <p align="center"><strong>Der Stern ist nicht der Würfel!</strong></p>  <p align="center"><strong></strong></p>  <p><a href="http://saschalorenz.blogspot.com/2011/02/coaches-hell-wie-entwickle-ich-denn.html" target="_blank">Viele Anwender der Analysis Services arbeiten aber gerne mit der Vorstellung</a>, dass das Starschema nicht nur die Quelle darstellt, sondern auch, dass im Cube die Trennung zwischen Dimensionen und Fakten existiert. Dimensions- und Faktentabellen sind aber "nur" relationale Strukturen, welche als Datenquellen für den Würfel dienen. Viele Frontends, wie auch Excel, unterscheiden aber sehr deutlich in der Darstellung zwischen Attributen (Dimensionen) und Measures. Der eigentliche Cube bzw. der, wie ich finde korrektere Ausdruck, multidimensionale Raum haben aber ihre ganz eigene "Logik". </p>  <p>Wie kommen wir da jetzt raus? </p>  <p>Muss nun jeder Endanwender eine hochesoterische MDX Schulung erhalten? Bitte nicht! Das führt nicht gerade zur Akzeptanz einer Lösung!</p>  <p>Aber jeder, der sich für das Erstellen von OLAP Cubes mit den SQL Server Analysis Services interessiert, sollte frühzeitig in den "echten" multidimensionalen Raum einsteigen. Selbst wenn nie geplant ist mit MDX Berechnungen etc. pp. einzubauen, so ist das bloße Beschäftigen damit und Hinterfragen schon sehr nützlich, um auch die "einfachen" Funktionen von SSAS noch besser zu nutzen. Ehrlich!</p>]]></content:encoded>
								<comments>https://www.insidesql.org/blogs/saschalorenz/2011/04/28/ssas-analysis-services-olap-cubes#comments</comments>
			<wfw:commentRss>https://www.insidesql.org/blogs/saschalorenz/?tempskin=_rss2&#38;disp=comments&#38;p=2840</wfw:commentRss>
		</item>
				<item>
			<title>SSIS (Integration Services) als ETL L&#246;sung &#8211; Entscheidungen vor dem Einsatz</title>
			<link>https://www.insidesql.org/blogs/saschalorenz/2011/04/25/ssis-integration-services-als-etl</link>
			<pubDate>Mon, 25 Apr 2011 19:58:00 +0000</pubDate>			<dc:creator>Sascha Lorenz</dc:creator>
			<category domain="main">SQL Server</category>
<category domain="alt">Projektmanagement</category>
<category domain="alt">Business Intelligence</category>			<guid isPermaLink="false">2810@https://www.insidesql.org/blogs/</guid>
						<description>&lt;p&gt;Heute mal wieder ein paar Gedanken zur Architektur einer ETL Lösung. Genaugenommen sind wir bei der Klärung von einigen grundlegenden Fragestellungen. Welche können das beim Einsatz von Integration Services (SSIS) als ETL Lösung sein?&lt;/p&gt;  &lt;p&gt;Viele Fragestellungen bzw. Herausforderungen, welche ich im Rahmen von Coachings gestellt bekommen habe bzw. wir als Team in Projekten angetroffen haben, lassen sich auf einige grundlegende Missverständnisse und inkonsequente Entscheidungen zurückführen. Dabei geht es nicht um technische Details.&lt;/p&gt;  &lt;p&gt;&lt;strong&gt;Ist tatsachlich die Entscheidung für eine echte ETL Lösung getroffen worden?&lt;/strong&gt;&lt;/p&gt;  &lt;p&gt;ETL heißt nicht, dass ein bestimmtes Tool verwendet wird! Also, wir verwenden die Integration Services heißt nicht automatisch, dass man da von ETL sprechen kann oder sollte. ETL ist für mich die konsequente Verfolgung eines Konzeptes. Und es heißt viel mehr als nur in Extract, Transform und Load zu denken, denn das trifft auch auf die meisten üblichen Schnittstellen zu. &lt;/p&gt;  &lt;p&gt;ETL heißt u. a., dass alle Beteiligen sehr wahrscheinlich in Zukunft in Datenpaketen denken müssen. Und damit ist nicht gemeint, dass SSIS Task in Paketen organisiert werden, sondern &quot;wieder&quot; klassische Batchverarbeitung von Datensätzen angesagt ist. Aber nur mit diesen einfachen aber effektiven Methoden können Datenmengen in Enterprise Umgebungen auch nachhaltig bewältigt werden.&lt;/p&gt;  &lt;p&gt;&lt;strong&gt;Ist jemand im Team, der schon mal ein echtes Data Warehouse gesehen hat?&lt;/strong&gt;&lt;/p&gt;  &lt;p&gt;Ok, provokant, aber leider eine berechtigte Frage! Denn mit Integration Services zu arbeiten heißt nicht, dass man später nur noch mit bunten Pfeilen Kästchen verbinden darf und alles andere ist dann von ganz allein im Lot. Viel zu häufig erlebe ich, dass die SSIS unterschätzt werden. Das grundlegende Konzept ist ja auch sehr einfach. Da kommt dann gerne mal im Workshop oder Proof-of-Concept viel zu schnell ein &quot;Schnittstelle, verstanden, lassen Sie uns jetzt bitte mit diesen Würfeln weitermachen.&quot;. Daher, da muss jemand ins Team, der das Ziel kennt.&lt;/p&gt;  &lt;p&gt;&lt;strong&gt;Ist eine Entscheidung für den Einsatz des Datenflusstasks getroffen worden?&lt;/strong&gt;&lt;/p&gt;  &lt;p&gt;Was soll das denn jetzt? Der Datenflusstask ist doch das Herz der Integration Services! Korrekt, aber ich kenne einige sehr erfolgreiche und durchaus komplexe BI Projekte, welche komplett auf den Datenfluss Task verzichtet haben. Warum? Ja, weil einfach die Anforderung für den Einsatz fehlte. Zwar wurde der Bewirtschaftungsprozess komplett in SSIS gekapselt, aber es wurden konsequent SQL Statements für die Verarbeitung der Daten eingesetzt.&lt;/p&gt;  &lt;p&gt;Den Datenflusstask einzusetzen heißt, dass sich das Team bewusst dazu entscheidet ab sofort neben einem &quot;Thinking in Sets&quot; (ja, ich meine damit auch &lt;a href=&quot;http://www.amazon.com/Joe-Celkos-Thinking-Sets-Management/dp/0123741378&quot; target=&quot;_blank&quot;&gt;das Buch von Joe Celko&lt;/a&gt;) mit der Prämisse &quot;Thinking in Rows&quot; zu leben. Den Datenflusstask einzusetzen heißt auch eine nicht unerhebliche Lernkurve mitzumachen.&amp;#160; Dann hat das Team eine äußerst leistungsfähige Technologie zur Hand, um wirkliche Massendaten bei jedem Lauf des Prozesses zu bewegen. Wenn es aber wie so häufig um wenige 100.000 Sätze pro Tag geht, dann sollte vorher entschieden werden, ob sich der Aufwand beim Einsatz lohnt. Wichtig ist mir hier der Hinweis, dass es da kein Richtig oder Falsch gibt! Es gilt immer die Fallentscheidung.&lt;/p&gt;  &lt;p&gt;&lt;strong&gt;Sind die politischen Aspekte eines solchen Projektes klar?&lt;/strong&gt;&lt;/p&gt;  &lt;p&gt;Natürlich ist jedes Projekt irgendwie politisch. Wer kennt das Spiel um die Förmchen und Schäufelchen nicht aus eigener Erfahrung. ETL Projekte, also wenn wir von einem echten sprechen (s.o.), sind anders, denn hier nehmen wir allen den Sand aus dem Sandkasten weg, um ihn erst mal richtig gut durchzuwaschen, zu sieben und dann färben wir den Sand auch der Größe der Körner nach ein. Und dann wird auch noch entschieden wer ab sofort mit dem blauen, roten und grünen Sand spielen darf. Vielleicht werden im Zuge des Projektes auch noch die liebgewonnen Eimer und Siebe standardisiert. Mit diesem Bild vor Augen sollte jedem die Situation und Herausforderung klar sein, in die er sich da begibt. Mein Ratschlag: Nehmen wir viele Lollies mit, welche dann vom Business Intelligence Competence Center verteilt werden sollten. Nicht ohne Grund ist die Gründung eines BICC häufig ein Teil eines ETL/DWH Projektes, um den Anwendern das Ganze schmackhaft zu machen.&lt;/p&gt;</description>
			<content:encoded><![CDATA[<p>Heute mal wieder ein paar Gedanken zur Architektur einer ETL Lösung. Genaugenommen sind wir bei der Klärung von einigen grundlegenden Fragestellungen. Welche können das beim Einsatz von Integration Services (SSIS) als ETL Lösung sein?</p>  <p>Viele Fragestellungen bzw. Herausforderungen, welche ich im Rahmen von Coachings gestellt bekommen habe bzw. wir als Team in Projekten angetroffen haben, lassen sich auf einige grundlegende Missverständnisse und inkonsequente Entscheidungen zurückführen. Dabei geht es nicht um technische Details.</p>  <p><strong>Ist tatsachlich die Entscheidung für eine echte ETL Lösung getroffen worden?</strong></p>  <p>ETL heißt nicht, dass ein bestimmtes Tool verwendet wird! Also, wir verwenden die Integration Services heißt nicht automatisch, dass man da von ETL sprechen kann oder sollte. ETL ist für mich die konsequente Verfolgung eines Konzeptes. Und es heißt viel mehr als nur in Extract, Transform und Load zu denken, denn das trifft auch auf die meisten üblichen Schnittstellen zu. </p>  <p>ETL heißt u. a., dass alle Beteiligen sehr wahrscheinlich in Zukunft in Datenpaketen denken müssen. Und damit ist nicht gemeint, dass SSIS Task in Paketen organisiert werden, sondern "wieder" klassische Batchverarbeitung von Datensätzen angesagt ist. Aber nur mit diesen einfachen aber effektiven Methoden können Datenmengen in Enterprise Umgebungen auch nachhaltig bewältigt werden.</p>  <p><strong>Ist jemand im Team, der schon mal ein echtes Data Warehouse gesehen hat?</strong></p>  <p>Ok, provokant, aber leider eine berechtigte Frage! Denn mit Integration Services zu arbeiten heißt nicht, dass man später nur noch mit bunten Pfeilen Kästchen verbinden darf und alles andere ist dann von ganz allein im Lot. Viel zu häufig erlebe ich, dass die SSIS unterschätzt werden. Das grundlegende Konzept ist ja auch sehr einfach. Da kommt dann gerne mal im Workshop oder Proof-of-Concept viel zu schnell ein "Schnittstelle, verstanden, lassen Sie uns jetzt bitte mit diesen Würfeln weitermachen.". Daher, da muss jemand ins Team, der das Ziel kennt.</p>  <p><strong>Ist eine Entscheidung für den Einsatz des Datenflusstasks getroffen worden?</strong></p>  <p>Was soll das denn jetzt? Der Datenflusstask ist doch das Herz der Integration Services! Korrekt, aber ich kenne einige sehr erfolgreiche und durchaus komplexe BI Projekte, welche komplett auf den Datenfluss Task verzichtet haben. Warum? Ja, weil einfach die Anforderung für den Einsatz fehlte. Zwar wurde der Bewirtschaftungsprozess komplett in SSIS gekapselt, aber es wurden konsequent SQL Statements für die Verarbeitung der Daten eingesetzt.</p>  <p>Den Datenflusstask einzusetzen heißt, dass sich das Team bewusst dazu entscheidet ab sofort neben einem "Thinking in Sets" (ja, ich meine damit auch <a href="http://www.amazon.com/Joe-Celkos-Thinking-Sets-Management/dp/0123741378" target="_blank">das Buch von Joe Celko</a>) mit der Prämisse "Thinking in Rows" zu leben. Den Datenflusstask einzusetzen heißt auch eine nicht unerhebliche Lernkurve mitzumachen.&#160; Dann hat das Team eine äußerst leistungsfähige Technologie zur Hand, um wirkliche Massendaten bei jedem Lauf des Prozesses zu bewegen. Wenn es aber wie so häufig um wenige 100.000 Sätze pro Tag geht, dann sollte vorher entschieden werden, ob sich der Aufwand beim Einsatz lohnt. Wichtig ist mir hier der Hinweis, dass es da kein Richtig oder Falsch gibt! Es gilt immer die Fallentscheidung.</p>  <p><strong>Sind die politischen Aspekte eines solchen Projektes klar?</strong></p>  <p>Natürlich ist jedes Projekt irgendwie politisch. Wer kennt das Spiel um die Förmchen und Schäufelchen nicht aus eigener Erfahrung. ETL Projekte, also wenn wir von einem echten sprechen (s.o.), sind anders, denn hier nehmen wir allen den Sand aus dem Sandkasten weg, um ihn erst mal richtig gut durchzuwaschen, zu sieben und dann färben wir den Sand auch der Größe der Körner nach ein. Und dann wird auch noch entschieden wer ab sofort mit dem blauen, roten und grünen Sand spielen darf. Vielleicht werden im Zuge des Projektes auch noch die liebgewonnen Eimer und Siebe standardisiert. Mit diesem Bild vor Augen sollte jedem die Situation und Herausforderung klar sein, in die er sich da begibt. Mein Ratschlag: Nehmen wir viele Lollies mit, welche dann vom Business Intelligence Competence Center verteilt werden sollten. Nicht ohne Grund ist die Gründung eines BICC häufig ein Teil eines ETL/DWH Projektes, um den Anwendern das Ganze schmackhaft zu machen.</p>]]></content:encoded>
								<comments>https://www.insidesql.org/blogs/saschalorenz/2011/04/25/ssis-integration-services-als-etl#comments</comments>
			<wfw:commentRss>https://www.insidesql.org/blogs/saschalorenz/?tempskin=_rss2&#38;disp=comments&#38;p=2810</wfw:commentRss>
		</item>
			</channel>
</rss>
