Connection: close Untitled Document

Web Ausdruck - https://www.bilanzbuchhaltung-roiss.com/

Grundprinzipien der Kostenrechnung

[September 2021]

Die Kostenrechnung ist auch in Zeiten der Digitalisierung und anderer wirtschaftlicher Umbrüche eines der wesentlichsten Instrumente unternehmerischen Handelns, da sie die Grundlagen für zahlreiche betriebliche Entscheidungen und Kalkulationen liefert. Typischerweise ist die Kostenrechnung maßgebend für die Preisbildung, die kalkulatorische Ergebnisermittlung, die Optimierung des betrieblichen Leistungsprogrammes sowie die Kontrolle der Wirtschaftlichkeit innerhalb des Unternehmens bzw. des Konzerns. Die insgesamt steigende Komplexität der Wirtschaft und die erhöhte Dynamik der Umwelt tragen dazu bei, dass die Anforderungen an die Kostenrechnungssysteme im Unternehmen laufend steigen (und die Systeme laufend angepasst werden müssen). So erfordert die höher werdende Komplexität der Wirtschaftsbeziehungen und der unternehmerischen Leistungserstellung eine dementsprechend erhöhte Leistungsfähigkeit und Genauigkeit der Kostenrechnung, damit die wirtschaftlichen Sachverhalte im Unternehmen hinreichend genau abgebildet werden können.

Mit der Kostenrechnung eng verbunden ist der Begriff des Kosten- und Erlösmanagements (alternativ auch als Kostenpolitik bezeichnet). Gemeint sind damit Maßnahmen zur Beeinflussung und Gestaltung der Kosten zur Verbesserung der Wirtschaftlichkeit der Leistungserstellung im Unternehmen. Konkret sollen dabei rechtzeitig Kosten in Bezug auf das Kostenniveau, die Kostenstruktur sowie den Kostenverlauf beeinflusst werden. Das Kostenniveau kann etwa durch Lieferantenpolitik, Outsourcing, Qualitätsmanagement oder Rationalisierung gesteuert werden. Bei der Kostenstruktur sind wiederum die relative Höhe von variablen und fixen Kosten bzw. von Einzel- und Gemeinkosten entscheidend und durch Schlagworte wie Kapazitätsauslastung oder Fremdbezug steuerbar. Beim Thema Kostenverlauf gilt es schließlich, progressive Kostenverläufe möglichst zu vermeiden. Dies kann beispielsweise durch Reduktion von Komplexität oder durch die Verwendung von Gleichteilen gelingen. Im Rahmen des proaktiven Kostenmanagements soll möglichst früh auf die Ursache von Kosten eingewirkt werden, wobei sich die Ansatzpunkte für das Kostenmanagement in den Produkten, Prozessen und Ressourcen des Unternehmens finden.

Der Kostenbegriff

Kosten entstehen durch den bewerteten Einsatz von Produktionsfaktoren (z.B. Material, Personal etc.) zur Erstellung von Sach- und Dienstleistungen. Sie ergeben sich in der Regel aus dem Produkt aus Einsatzmenge und Preis eines Produktionsfaktors. Der Kosten(rechnungs)begriff kann auch nach dem Zeitbezug und nach dem Sachumfang unterschieden werden. Der Zeitbezug umfasst Istkosten-, Normalkosten- und Plankosten-Rechnungssysteme und bezieht sich demnach entweder auf Istkosten der abgelaufenen Periode, Durchschnittskosten der vergangenen Periode oder Plankosten der künftigen Periode. Der später näher dargestellte Sachumfang unterscheidet nach Art und Ausmaß der Zurechnung der Kosten auf die Kostenträger und somit zwischen Vollkostenrechnung und Teilkostenrechnung. Sowohl Vollkosten- als auch Teilkostenrechnung können auf Istkosten-, Normalkosten- oder Plankostenrechnung basieren.

Nachfolgend soll das System der betrieblichen Kosten- und Erfolgsrechnung näher dargestellt werden. Wichtige Begriffe dabei sind neben Kostenartenrechnung und Kostenstellenrechnung vor allem die Kostenträgerrechnung, Vollkostenrechnung und Teilkostenrechnung.

Kostenartenrechnung, Kostenstellenrechnung und Kostenträgerrechnung

Die Kostenartenrechnung gliedert die Kostenarten nach verrechnungstechnischen Erfordernissen. Sie widmet sich der Frage, welche Kosten insgesamt in welcher Höhe angefallen sind. Sie steht am Anfang der Kostenrechnung und hat die Erfassung und Gliederung der in der Abrechnungsperiode angefallenen Kostenarten zum Ziel. Eine Möglichkeit der Gliederung besteht in der Zusammenfassung typischer Kostengruppen wie Personalkosten, Materialkosten, etc. oder nach der Entstehung der Kosten. Eine weitere Gliederungsmöglichkeit ist die Trennung in variable und fixe Kostenteile, d.h. nach der Abhängigkeit bzw. Unabhängigkeit vom Beschäftigungsgrad. Die Kostenartenrechnung hat dabei zum Ziel, eine möglichst exakte und vollständige Erfassung und Bewertung der im Betrieb angefallenen relevanten Kosten durchzuführen - technisch erfolgt dies mithilfe des Betriebsüberleitungsbogens (BÜB).

Eine Kostenstelle ist eine Einheit innerhalb eines Unternehmens, die Kosten und Leistungen sammelt. Es soll aufgezeigt werden, wo welche Kosten angefallen sind und welche Leistungen dafür erbracht wurden. Der wesentliche Gedanke der Kostenstellenrechnung ist die Kostenkontrolle. Durch die Gegenüberstellung von Soll- und Ist-Kosten kann die Wirtschaftlichkeit der Führung der Kostenstelle überprüft werden und bei Wirtschaftlichkeitsabweichungen können notwendige Maßnahmen ergriffen werden. Die zentrale Aufgabe der Kostenstellenrechnung liegt in der Vorbereitung der indirekten Weiterverrechnung der Gemeinkosten auf die Kostenträger. Dafür müssen für die einzelnen Kostenstellen Zuschlags- und Verrechnungssätze gebildet werden (sie zeigen das Verhältnis der Gemeinkostensumme einer Kostenstelle zur entsprechenden Bezugsgröße), um die Inanspruchnahme einer Kostenstelle für einen Kostenträger zum Ausdruck bringen zu können. Mittels Betriebsabrechnungsbogen (BAB) wird sichergestellt, dass ein Kostenträger anteilig nur mit den Gemeinkosten jener Kostenstellen belastet wird, die an der Erstellung des jeweiligen Kostenträgers beteiligt waren.

Die Kostenträgerrechnung ist für die Preiskalkulation von besonderer Relevanz. Unter Kostenträger versteht man jene Leistungen (Produkte, Dienstleistungen), die vom Markt bezahlt werden und durch welche die angefallenen Kosten getragen werden können. Einzelkosten (auch direkte Kosten genannt) umfassen dabei jene Kosten, die unmittelbar mit der Leistungserstellung in Zusammenhang stehen, wie beispielsweise Fertigungslöhne und Fertigungsmaterial. Gemeinkosten sind Kosten, die den einzelnen Kostenträgern nur anteilsmäßig zugerechnet werden können, wie Energiekosten, Reparaturkosten, Raummieten , etc. Die Zurechnung dieser Kosten erfolgt in Form von Zuschlags- oder Verrechnungssätzen, dem sogenannten Gemeinkostenzuschlag. Im Rahmen der Gemeinkosten kann schließlich zwischen echten und unechten Gemeinkosten differenziert werden. Echte Gemeinkosten - wie die bereits genannten - können den einzelnen Kostenträgern nur indirekt zugerechnet werden, weil sie für mehrere oder alle Kostenträger entstanden sind (Verrechnung i.S.d. Durchschnittsprinzips). Unechte Gemeinkosten umfassen regelmäßig Hilfs- und Betriebsstoffe (z.B. Schrauben, Lacke, Leim oder Nägel). Wenngleich sie einem Kostenträger direkt als Einzelkosten (theoretisch) zugerechnet werden könnten, erfolgt dies aus Wirtschaftlichkeits- und Vereinfachungsgründen nicht - diese Hilfsstoffe stellen meist keinen erheblichen Wert dar, sodass auf eine gesonderte Erfassung verzichtet wird.

Nachfolgend werden die Vollkostenrechnung und die Teilkostenrechnung genauer dargestellt. Der wesentliche Unterschied zwischen Voll- und Teilkostenrechnung liegt darin, dass entweder die gesamten oder nur ein Teil der in einer Abrechnungsperiode erfassten Kosten dem Kostenträger zugerechnet werden.

Vollkostenrechnung

Die Vollkostenrechnung lastet den einzelnen Kostenträgern sämtliche durch sie verursachte Kosten an (fixe und variable Kosten). Konkret wird dabei versucht, alle im Unternehmen anfallenden Kosten möglichst verursachungsgerecht - unter Heranziehung von Kostenstellen und Verteilungsschlüsseln - auf die Kostenträger (beispielsweise eine Produktgruppe) zu verteilen. Dem Namen entsprechend umfassen die Vollkosten die Einzelkosten und die Gemeinkosten. Typischerweise beinhalten die Einzelkosten jene Kosten, welche dem Produkt direkt zurechenbar sind (z.B. Materialkosten und Fertigungslöhne). Gemeinkosten, wie etwa die Löhne der unternehmensinternen Verwaltung, können dem einzelnen Kostenträger nicht direkt zugerechnet werden, sondern nur indirekt über eine Kostenstelle.

Die Vollkostenrechnung dient vor allem der langfristigen Kostenkalkulation. Sie beruht auf der Grundidee, dass sämtliche Kosten, die in einem Betrieb in einer Abrechnungsperiode angefallen sind, durch die Umsatzerlöse gedeckt sein müssen. Nur wenn alle Kosten den Kostenträgern zugerechnet werden und die Preise der Produkte zumindest kostendeckend sind, ist langfristig gesehen die Existenz des Unternehmens gesichert. Mittels Vollkostenrechnung kann also auch die langfristige Preisuntergrenze von Aufträgen bzw. Produkten ermittelt werden. Schließlich müssen die errechneten vollen Selbstkosten unter dem Marktpreis liegen, damit ein Unternehmen langfristig keine Verluste erwirtschaftet.

Sowohl in der Literatur als auch in der Praxis ist die Vollkostenrechnung nicht unumstritten und folgenden Kritikpunkten ausgesetzt:

Auf den letzten Kritikpunkt bezogen besteht ein Problem der Vollkostenrechnung darin, dass die Verteilung der Gemeinkosten nicht verursachungsgerecht, sondern pauschal vorgenommen wird. Dies kann beispielsweise dazu führen, dass bestimmte Kostenträger übergebührend mit Gemeinkosten belastet werden und im Extremfall dadurch unwirtschaftlich werden. Das System der Vollkostenrechnung gilt überdies oftmals als zu schwerfällig (mitunter aufgrund der umfangreichen Schlüsselung fixer Kosten) für die Unterstützung bei Unternehmensentscheidungen bzgl. Veränderungen im Leistungsumfang oder bei der Zusammenstellung von Produkt- und Absatzportfolio.

Teilkostenrechnung

Unter Teilkostenrechnung versteht sich eine leistungsabhängige, verursachungsgerechte Kostenrechnung - sie ist vor allem dadurch gekennzeichnet, dass nur die Einzelkosten den jeweiligen Kostenträgern zugerechnet werden. Die Teilkostenrechnung ist kurzfristiger als die Vollkostenrechnung, wobei dieses Merkmal sowohl Vorteil als auch Nachteil sein kann. Die Teilkostenrechnung ist sensitiver auf Beschäftigungsschwankungen und liefert Entscheidungshilfen bei kurzfristigen Fragestellungen wie z.B. der Berechnung der kurzfristigen Preisuntergrenze. Ausgangspunkt für die Teilkostenrechnung ist die Zerlegung der Kosten in beschäftigungsunabhängige fixe Kosten einerseits und beschäftigungsabhängige variable Kosten andererseits. Die beschäftigungsunabhängigen fixen Kosten umfassen jenen Teil der Gesamtkosten, der von der Leistungserstellung und vom Leistungsumfang unabhängig ist. Diese Kosten sind durch die Aufrechterhaltung der Betriebs- bzw. Leistungsbereitschaft des Unternehmens gekennzeichnet und ändern sich bei Beschäftigungsschwankungen nicht (beispielsweise Versicherungen, Miete, Kosten für Leasing usw.). Hingegen verändern sich beispielweise Materialverbrauch oder Fertigungslöhne als variable Kosten bei Beschäftigungsschwankungen - sie fallen nur an, wenn Leistungen auch tatsächlich erbracht werden.

Die Teilkostenrechnung ist grundsätzlich wesentlich aussagekräftiger als die Vollkostenrechnung. Die Vorteile der Teilkostenrechnung stellen sich u.A. wie folgt dar:

Bild: © Adobe Stock - Andrey Popov

Die Deckungsbeitragsrechnung für die Unternehmensplanung und -steuerung

[September 2021]

Allgemein betrachtet bezieht die Deckungsbeitragsrechnung neben der Kostenseite auch die Erlösseite in die Berechnung mit ein. Die Deckungsbeitragsrechnung setzt die Trennung der betrieblichen Kosten in Fixkosten und variable Kosten voraus und geht überdies davon aus, dass die variablen Kosten proportional zum Produktwert bzw. zur Produktmenge verlaufen. Dies stellt auch - zumindest theoretisch - eine Schwachstelle der Deckungsbeitragsrechnung dar, da die Variabilität nicht immer linear, sondern auch progressiv oder degressiv verlaufen kann.

Die Deckungsbeitragsrechnung gilt als Ausgangspunkt für Instrumente wie Break-even-Analysen, Prioritätensteuerung, Isodeckungsbeitragskurven, Opportunitätskostenrechnung, Provisionssysteme usw. Bekanntermaßen bestimmt die Break-even-Analyse jenen Umsatz, bei welchem gerade Vollkostendeckung eintritt und die Fixkosten dem Deckungsbeitrag entsprechen. Die Kalkulation des Deckungsbeitrags kann auch zur Prioritätensteuerung herangezogen werden. Demnach richtet sich beispielsweise die Priorität im Sortiment nach dem Deckungsbeitrag pro Einheit oder nach relativen Deckungsbeiträgen pro Engpasseinheit (unter Berücksichtigung kapazitätsmäßiger Beschränkungen). Die Isodeckungsbeitragskurve eines Produkts zeigt schließlich jene Alternativen im Preis und bei der Absatzmenge eines Produktes auf, welche jeweils den gleichen Deckungsbeitrag innerhalb eines bestimmten Zeitraums ermöglichen.

Einstufige und mehrstufige Deckungsbeitragsrechnung

Der grundsätzliche Unterschied zwischen der einstufigen und der mehrstufigen Deckungsbeitragsrechnung besteht darin, dass bei der einstufigen Deckungsbeitragsrechnung die Fixkosten gleichsam als ein Block in die Betriebsergebnisrechnung eingehen. Hingegen wird bei der mehrstufigen Deckungsbeitragsrechnung der Fixkostenblock aufgespalten und stufenweise verrechnet. Bei der einstufigen Deckungsbeitragsrechnung und beim Vorliegen mehrerer Produkte bzw. Produktarten werden die Deckungsbeiträge je Produktart zusammengezählt (das ergibt den Unternehmensdeckungsbeitrag) und dann der Fixkostenblock in Abzug gebracht. Der sohin berechnete Periodenerfolg ist allerdings dadurch getrübt, dass sich durch die Gleichbehandlung sämtlicher Fixkosten nur eine mangelnde Aussagekraft in punkto genauen Gewinns pro Produktart ergibt. Für kurzfristige Entscheidungen mag diese Schwachstelle noch verkraftbar sein, jedoch weniger für mittel- und langfristige Entscheidungen. Die einstufige Deckungsbeitragsrechnung wird weniger einsatzfähig, je höher der Anteil der Fixkosten an den Gesamtkosten ist.

Bei der mehrstufigen Deckungsbeitragsrechnung werden die Fixkosten nach ihrer Kostenverursachung differenziert und nicht in einem Fixkostenblock verrechnet. Es kommt also zu einer verantwortungsgerechten Zuordnung von Kosten und Erlösen auf die jeweiligen Verursacher. Dabei ist darauf zu achten, dass die Zuordnung der Fixkosten an der jeweils untersten Stelle erfolgt, welcher sie überschneidungsfrei zugeordnet werden können. Grundsätzlich können die Fixkosten dabei in die Gruppen Produktfixkosten (z.B. Kosten für Spezialmaschinen und -werkzeuge), Produktgruppenfixkosten (Kosten für gemeinsam genutzte Gebäude, Maschinen und Anlagen), Kostenstellen- (etwa Raumkosten) bzw. Bereichsfixkosten (darunter versteht man Fixkosten, welche besonders für diese bestimmte Hierarchieebene anfallen) und Unternehmensfixkosten (z.B. Kosten des Rechnungswesens) eingeteilt werden. Die mehrstufige Deckungsbeitragsrechnung ist durch die stufenweise Verteilung der Fixkosten gekennzeichnet. Mit ihrer Hilfe kann viel genauer festgestellt werden, inwieweit einzelne Produkte, Produktgruppen oder auch Unternehmensbereiche in der Lage sind, die ihnen unmittelbar zurechenbaren fixen Kosten zu decken (im Endeffekt zeigt sich dadurch auch die Erfolgssituation der entsprechenden Produkte, Produktgruppen usw.). Somit kann auch festgestellt werden und als wertvolle Entscheidungsgrundlage dienen, in welchen Bereichen die höchsten, niedrigsten oder möglicherweise auch negative Deckungsbeiträge erzielt werden. In der Planungsphase kann dadurch ungünstigen Kostenentwicklungen gegengesteuert werden. Die mehrstufige Deckungsbeitragsrechnung kann schließlich nach der zeitlichen Beeinflussbarkeit der Fixkosten oder nach der Auszahlungswirksamkeit der Fixkosten erweitert und verfeinert werden.

Bild: © Adobe Stock - CrazyCloud

Kluge Investitionsentscheidungen während der (COVID-19) Krise treffen

[August 2020]

Die COVID-19-Krise ruft zumindest kurzfristig betrachtet in vielen Unternehmen den Drang bzw. die Notwendigkeit von drastischen Einsparungen hervor. Sofern jedoch ein bestimmter Grundoptimismus an bessere Zeiten und an ein Überwinden dieser Krise besteht, sollte sich ein Unternehmen auch mit der Thematik Investitionen auseinandersetzen. Investitionen können dabei allerdings eine ambivalente Rolle spielen. Auf der einen Seite sind gerade Einsparungen bei Investitionen ein (auf den ersten Blick) wirksames Mittel zur Schonung der Liquidität. Überdies stellen nicht durchgeführte Investitionen eine "taktische Manövriermasse" dar, um kurzfristig operative Zahlungen leisten zu können. Andererseits können gerade unterlassene Investitionen die mittel- und langfristigen Renditemöglichkeiten gefährden, da beispielsweise ohne Investitionen gerade dann die (Produktions)Anlagen veraltet sind oder zu geringe Kapazitäten zu Verfügung stehen, wenn das wirtschaftliche Umfeld wieder zur alten Stärke zurückgefunden hat.

Negativ betrachtet positioniert sich das Unternehmen durch nicht getätigte Investitionen möglicherweise schwächer am Markt und verschlechtert dadurch seine Marktposition sogar langfristig. Dabei ist auch das Risiko eines sogenannten Investitionsstaus zu beachten. Neben dem richtigen Zeitpunkt für die generelle Entscheidung für Investitionen müssen noch die Implementierungsdauer der Investitionen sowie der damit zusammenhängende Investitionszyklus berücksichtigt werden – erfolgt dies nicht, kann es zu einem Investitionsstau kommen. Eine durchdachte Investitionsstrategie (welche z.B. Investitionszyklen und Konjunkturzyklen berücksichtigt) und ein damit zusammenhängendes robustes Investitionsmanagement sind also unabdingbar, um den Umschwung aus einer drohenden Verlustsituation hin zu längerfristigen Gewinnen erreichen zu können.

Der Grundgedanke für eine durchdachte Investitionsstrategie liegt darin, dass durch Investitionen und Kapitaleinsatz zusätzliche Gewinne erwirtschaftet werden sollen. Investitionen können nach unterschiedlichen Zielen eingeordnet werden – beispielsweise als Investition in zusätzliche Kapazitäten zwecks Wachstums. Investitionen in neue Technologien können z.B. zu effizienteren Produktionsprozessen führen und durch Kostenreduktion die Gewinne erhöhen. Schließlich können Investitionen tragfähiges Wachstum bewirken und damit der Nachhaltigkeit des unternehmerischen Handelns dienen.

Ersatzinvestitionen, Erweiterungsinvestitionen und Innovationsinvestitionen

Eine häufige Einteilung von Investitionen erfolgt in Ersatz-, Erweiterungs- und Innovationsinvestitionen. Ersatzinvestitionen ersetzen Güter, welche sich durch den Wertschöpfungsprozess abgenutzt haben; es kommt jedoch zu keiner Erweiterung der originären Kapazitäten. Hingegen vergrößern Erweiterungsinvestitionen die Kapazitäten des Unternehmens, ohne jedoch das Geschäftsmodell grundsätzlich zu verändern. Innovationsinvestitionen schließlich bilden die Basis für eine tiefgreifende Veränderung des Geschäftsmodells des Unternehmens, etwa durch neue Produkte, Märkte oder Herstellungsverfahren. Die unterschiedlichen Kategorien von Investitionen sind jedenfalls durch verschieden hohe Risiken und einen jeweils unterschiedlichen Zeithorizont gekennzeichnet – gerade in Krisenzeiten sind das wesentliche Aspekte. So können Ersatzinvestitionen in der aktuellen Corona-Krise ausgelassen werden, um die Liquiditätsreserven zu stärken. Dies ist auch betriebswirtschaftlich durchaus verständlich, da aufgrund der geringeren Nachfrage die Produktion gedrosselt werden kann. Längerfristig betrachtet, insbesondere bei einer Marktberuhigung, müssen die Produktionskapazitäten jedoch wieder erhöht werden – unter Umständen kann dies aufwendiger sein als zum Zeitpunkt der verschobenen Investition, da sich die Rahmenbedingungen, wie etwa Infrastruktur oder Geschäftsbeziehungen und -erfahrungen, inzwischen geändert haben. Innovationsinvestitionen hingegen sind zumindest kurzfristig gesehen mit hohem Risiko und bloß einer geringen Rendite verbunden. In Krisenzeiten sind Unternehmen daher oftmals dazu verleitet, solche Investitionen hintanzustellen, wenngleich dadurch strategische Optionen fallengelassen werden.

Die richtige Investitionsentscheidung und damit verbunden das Investitionsmanagement können mittels Einordnung der potentiellen Investitionen in die bereits erwähnten Kategorien unterstützt werden (auch z.B. durch eine Matrixdarstellung). Die Einteilung erfolgt dabei in Abhängigkeit von der Rendite (Return on Investment) einerseits und von den Kapitalanforderungen (ausgedrückt am Anteil vom Investitionsbudget) andererseits. Wenn Investitionen eine hohe Rendite (verglichen mit dem benötigten Investitionskapital) bieten und zugleich einen großen Anteil an dem Investitionsbudget benötigen, können sie grundsätzlich als attraktive Investitionen betrachtet werden (auch wenn sie aufgrund der hohen Kapitalanforderungen andere Investitionen verdrängen). Ein anderes Feld (Kategorie) erfasst Investitionen, die ebenfalls eine hohe Rendite versprechen, jedoch nur einen geringen Anteil am Investitionsbudget benötigen. Deutlich weniger attraktiv sind jene Investitionen, welche einen hohen Kapitalbedarf zeigen, der erwartete ROI jedoch nur sehr bescheiden ausfällt. Die vierte Kombination ist schließlich jene aus geringer Rendite und geringem Anteil am Investitionsbudget. Gerade in Krisenzeiten wie der aktuellen COVID-19-Krise liegt die Herausforderung für Unternehmen auch darin, das Investitionsportfolio ganzheitlich zu betrachten und Renditeforderungen mit der beschränkten Verfügbarkeit von Kapital auszubalancieren.

Qualitative und quantitative Investitionsbewertung als Schlüssel zum Ziel

Für die erfolgreiche Umsetzung von Investitionsstrategien können qualitative und quantitative Investitionsbewertungen herangezogen werden. Die qualitativen Faktoren sind dabei oftmals wirtschaftlicher, technischer, sozialer oder rechtlicher Natur. Dabei können auch Parameter einer Investition wie z.B. strategischer Nutzen, Flexibilität, ökologische Nachhaltigkeit oder bestehende Erfahrung (in Bezug auf Investitionen) eine wichtige Rolle spielen. Dadurch kann sich herausstellen, dass eine Investition aufgrund von qualitativen Vorteilen auch in Krisenzeiten vorgenommen werden sollte, selbst wenn quantitativ betrachtet (d.h. typischerweise die Rendite) kein zwingender Anlass für eine Investition bestand.

Der strategische, langfristige Nutzen einer Investition kann darin bestehen, dass es zu positiven Werbeeffekten und Kundenbindung kommt und somit auch eine renditemäßig geringer dimensionierte Investition während Krisenzeiten zu attraktiven Folgeaufträgen führt. Der ausschließliche quantitative Fokus auf jede einzelne Investition für sich könnte hingegen langfristig betrachtet irreführend sein. Flexibilität ist auch in Krisenzeiten grundsätzlich eine positive Eigenschaft und kann bezogen auf Investitionen jedoch insoweit problematisch sein, da beispielsweise bereits begonnene Investitionen oftmals nur mit großen Verlusten reduziert oder gänzlich rückgängig gemacht werden können. Der Aspekt der ökologischen Nachhaltigkeit einer Investition kann schließlich – auch in Krisenzeiten – den Ausschlag geben, ob ein Unternehmen eine Investition durchführt oder nicht. Dies trägt auch dem immer bedeutsameren gesellschaftlich und politisch gewollten Wandel zu umweltschonenden Technologien Rechnung. Schließlich ist auch der Aspekt der Erfahrung gerade in Krisenzeiten nicht zu unterschätzen. Es sind nicht nur die eigenen Kompetenzen zur Durchführung einer Investition mitentscheidend, sondern es gilt auch, äußere Einflüsse in anders funktionierenden Märkten in turbulenten Zeiten möglichst gut einschätzen zu können.

Mithilfe der quantitativen Investitionsbewertung kann – oftmals durch das Controlling – dazu beigetragen werden, dass nicht tragbare Investitionen frühzeitig erkannt werden und Gegenmaßnahmen eingeleitet werden. In Krisenzeiten muss jedenfalls risikoangepasste Liquiditätsplanung immer mitbedacht werden. Die wesentlichen Parameter der quantitativen Investitionsbewertung umfassen die Planung zukünftiger Zahlungsströme (der Investition), die Berechnung der Bewertungskriterien und den Vergleich der Bewertungskriterien mit Schwellenwerten.

Mit der COVID-19-Krise muss nicht nur eine Krise bewältigt werden – es besteht auch die Möglichkeit, dass die aktuell wirtschaftlich schwierigen Umstände sich im Endeffekt als Chance für Veränderung und Verbesserung der Wettbewerbssituation präsentieren. Hinsichtlich Investitionsentscheidungen ist es daher empfehlenswert, eine Gesamtperspektive einzunehmen und nicht bloß auf das (Nicht)Erreichen von Schwellenwerten abzustellen. Ebenso müssen qualitative Investitionskriterien die wohlüberlegte Investitionsentscheidung abrunden.

Erfolgreich Verhandeln und Konflikte lösen durch das (erweiterte) "Harvard-Konzept"

[August 2020]

Im Geschäftsleben stehen Verhandlungen und Konfliktsituationen an der Tagesordnung. Wenngleich alle Beteiligten typischerweise für sich selbst das Optimum erreichen möchten, so kann es durchaus zielführend sein, durch konstruktive und friedliche Einigung in Konfliktsituationen eine Win-Win-Situation zu erreichen. Das von Fisher/Ury entwickelte sogenannte "Harvard-Konzept" geht in diese Richtung - es wurde von Fisher/Shapiro ergänzt und damit das "erweiterte Harvard-Konzept" geschaffen. Die wichtige Kernbotschaft des (ursprünglichen) Harvard-Konzepts liegt darin, dass optimale Verhandlungsergebnisse oftmals dann erzielt werden können, wenn die Interessen der Verhandlungspartner entsprechend berücksichtigt werden. Das bewusste Ausspielen von Stärken oder Nachgeben treten somit in den Hintergrund. Ein gängiges Problem liegt hingegen – wenn der unbedingte Wille zum Gewinnen im Vordergrund steht – darin, dass sich die Fronten verhärten können; gerade durch das zu häufige Zeigen von Stärke.

Vielmehr stellt das Harvard-Konzept das sachbezogene Verhandeln in den Mittelpunkt. Für den Erfolg müssen typischerweise vier Grundvoraussetzungen erfüllt sein. Essentiell ist dabei, dass das Ergebnis der Verhandlungen auf objektiven Entscheidungskriterien aufbaut – überdies sind vor der Entscheidung unterschiedliche Wahlmöglichkeiten zu entwickeln. Weiters müssen Menschen und Probleme getrennt voneinander behandelt werden (Trennung von Sach- und Beziehungsebene). Dabei darf auch nicht vergessen werden, dass die Interessen im Vordergrund stehen und nicht etwa die Positionen.

Die Grundvoraussetzungen werden anschaulicher, wenn folgende Verhaltensempfehlungen berücksichtigt werden. Für eine klare Kommunikation ist es notwendig, verständlich zu sprechen und auch aufmerksam zuzuhören. Ebenso ist es wichtig, über sich selbst zu sprechen und nicht über das Gegenüber. Dem Gesprächspartner sollte man jedoch rückmelden, was man gehört und vor allem verstanden hat. Die Schuld an eigenen Problemen darf nicht der Gegenseite zugeschoben werden und man sollte es unterlassen, von eigenen Befürchtungen auf Absichten anderer zu schließen. Unter der Prämisse, auch die Interessen der Verhandlungspartner erreichen zu wollen, ist es wichtig, sich in die Lage des Gegenübers zu versetzen, die Vorstellungen beider Seiten anzusprechen und schließlich bei den Wahlmöglichkeiten das Wertesystem des anderen zu berücksichtigen.

Erweitertes Harvard-Konzept berücksichtigt emotionale Seite

Das erweiterte Harvard-Konzept zeichnet sich dadurch aus, dass neben Empfehlungen für sachbezogenes Verhandeln auch die emotionale Seite berücksichtigt wird. Insbesondere stechen fünf Grundbedürfnisse hervor. Diese umfassen Wertschätzung, Verbundenheit, Autonomie, Status und Rolle.

Wertschätzung

Beginnend mit einer negativen Abgrenzung kann es typischerweise dann nicht zu Wertschätzung kommen, wenn der Standpunkt des anderen tatsächlich nicht verstanden wird, sofern Zweifel am Wert des Standpunkts bestehen oder wenn die Anerkennung nicht zum Ausdruck gebracht wird. Hingegen kommt es zu Wertschätzung, wenn auf die Sichtweise des Gegenübers eingegangen wird und die Gedanken und Gefühle des anderen anerkannt werden. Ein zum Teil falsches Verständnis von Wertschätzung bzw. Anerkennung liegt dann vor, wenn Anerkennung mit Nachgeben verwechselt wird. Dabei bleibt es einem unbenommen, einen Vorschlag abzulehnen, selbst wenn man die Meinung des anderen anerkennt und die dahinter liegenden Gedanken versteht.

Verbundenheit

Verbundenheit kann beispielsweise durch das Finden von Gemeinsamkeiten oder durch einen Interessensausgleich hergestellt werden – der vermeintliche Gegner wird dann zum Partner. Wichtig ist dabei jedenfalls, dass eine strukturierte Beziehung als Gesprächspartner und eine persönliche Beziehung als Vertrauter aufgebaut werden. Wichtig für den Erfolg kann oftmals auch das Betonen der Interessen der Gegenseite sein – überdies kann der (dezente) Hinweis helfen, dass es sich bei den Verhandlungen um eine gemeinsame Aufgabe handelt. Bei aller Verbundenheit mit dem Verhandlungspartner und dem bewussten oder unbewussten Schaffen von Gemeinsamkeiten darf dies jedoch nicht zur Folge haben, dass man aufgrund der Gemeinsamkeiten und persönlichen Beziehungen leichtfertig den Vorschlägen des Verhandlungspartners zustimmt – der nüchterne Verstand sollte letztlich immer die Oberhand behalten.

Autonomie

Ganz allgemein wie auch in Verhandlungen steht Autonomie für die Anerkennung von Handlungsspielräumen der beiden Verhandlungspartner. Dabei sollen die eigenen Handlungsspielräume vergrößert werden, ohne die des anderen zu verletzen. Fehlende Autonomie kann sich auch in dem Gefühl ausdrücken, dass ein falscher Schritt die gesamten Verhandlungen platzen lassen könnte. Zum Glück gibt es auch Maßnahmen, durch welche die Autonomie gestärkt werden kann – etwa durch das Aussprechen von Empfehlungen, durch das Entwickeln von Optionen oder durch gemeinsames Brainstorming.

Status

Das Grundbedürfnis Status ist von vielerlei Fallstricken umgeben, da etwa das Ignorieren oder Herabsetzen des Status des Gesprächs- bzw. Verhandlungspartners Kränkungen und Verletzungen hervorrufen kann. Wird hingegen der Status der Person unterstrichen, so führt dies zu Anerkennung und Erhöhung des Selbstwertgefühls. Folglich resultieren aus der Anerkennung des Status regelmäßig Motivation und die Bereitschaft, produktiv und konstruktiv mitzuwirken. Beim Thema Status wird oft zwischen Sozialstatus und Spezialstatus (innerhalb eines klar definierten Sachgebiets) unterschieden.

Rolle

Rolle als Grundbedürfnis erfüllt schließlich drei Anforderungen. Neben dem klaren Zweck und Rahmen für das eigene Verhalten muss eine Rolle als persönlich sinnvoll empfunden werden, um Fähigkeiten, Interessen und Werte bei der Tätigkeit einsetzen zu können. Schließlich zeigt die Rolle – im Gegensatz zu einer Maske – wer jeder einzelne wirklich ist. Für erfolgreiche Kommunikation und Konfliktlösung gilt es also Rollen zu suchen, mit denen die Zusammenarbeit mit anderen verbessert werden kann. Innerhalb einer solchen Rolle können idealerweise befriedigende Tätigkeiten ausgeübt werden.

Mit Six Sigma zum optimalen Qualitätsmanagement

[Januar 2020]

Six Sigma ist eine erstmals in den 1970er Jahren in Japan eingeführte Managementtechnik, die vor allem Prozessverbesserung und erfolgreicheres Qualitätsmanagement anstrebt. Wesentliche Ziele dabei sind die Verbesserung der Unternehmensergebnisse und die gleichzeitige Steigerung des Kundennutzens. Während die damit zusammenhängenden Techniken ursprünglich in der Industrie zum Einsatz gekommen sind, können die Prinzipien ebenso in der Finanzwirtschaft wie auch im Dienstleistungssektor gut angewendet werden. Six Sigma kommt projektbezogen zum Einsatz, wobei fehlerhafte Prozesse verbessert bzw. eliminiert werden sollen und es dadurch zu wesentlichen Kosteneinsparungen kommen kann. Six Sigma erfindet dabei keineswegs das Rad neu, sondern bedient sich vermehrt bereits bestehender Werkzeuge aus dem Bereich Qualitätsmanagement. Überdies kommt dem Aspekt der Kundenbedürfnisse wie auch dem Einsatz statistischer Methoden wesentliche Bedeutung zu.

Nicht zuletzt der Namensteil Sigma macht die Relevanz statistischer Methoden für diese Managementtechnik deutlich. Ausgangspunkt dabei ist, dass die wichtigsten Unternehmensprozesse optimiert werden sollen und es jedoch dabei zu unerwünschten Streuungen in den Prozessergebnissen kommen kann. In der statistischen Methodenlehre bezeichnet der griechische Buchstabe Sigma die Standardabweichung (zur Gaußschen Normalverteilung), welche die Abweichung zwischen Merkmalswerten (voneinander) misst. Der Abstand zwischen dem Mittelwert und der nächstgelegenen Toleranzgrenze kann in Standardabweichungen gemessen werden. Six Sigma im Sinne von sechs Standardabweichungen drückt die Forderung aus, dass die nächstgelegene Toleranzgrenze mindestens sechs Standardabweichungen vom Mittelwert entfernt liegen soll - de facto würde dies zu einem fehlerlosen Produktionsprozess als beispielhaftes Ziel in der Produktion führen.

DMAIC Zyklus als wichtiges Instrument

Eine wichtige Rolle bei den im Rahmen von Six Sigma anwendbaren Prozessen bzw. Tools stellt der mitunter aufwendige und sich über mehrere Monate erstreckende DMAIC Zyklus dar. Dabei handelt es sich um einen Projekt- und Regelkreisansatz. Die oftmals lange Dauer des DMAIC Zyklus ist mitunter dadurch zu erklären, dass idealerweise nach jeder Phase ein Gate-Review durchgeführt wird, in dessen Rahmen die erzielten Ergebnisse bewertet werden und auch entschieden werden muss, ob das Projekt in die nächste Phase geführt werden kann. Die (englische) Abkürzung DMAIC steht für Define, Measure, Analyze, Improve und Control. Das Hauptziel besteht darin, bestehende Kernprozesse des Unternehmens (z.B. die Produktion) messbar zu machen und sie nachhaltig zu verbessern. In der Define Phase werden die Ist-Situation des entsprechenden Prozesses analysiert, Probleme identifiziert und Projektziele definiert. Diese erste Phase beinhaltet auch eine Abwägung der mit diesem Projekt verbundenen Chancen und Risiken. In dieser Phase spielen vor allem die Kundenanforderungen eine große Rolle - vereinfacht gesagt sollte bereits in der Define Phase vermieden werden, dass der Kunde am Ende mit dem Ergebnis unzufrieden ist, weil er andere Erwartungen an das Produkt oder die Dienstleistungen gehegt hatte. Ebenso als Grundlage für die weiteren Phasen im DMAIC Zyklus beschäftigt sich die Measure Phase intensiv mit Daten. Um an Daten für Entscheidungen und für Optimierungspotential - oder auch für die Frage, wo der meiste Aufwand und das Problem in dem Prozess liegen - gelangen zu können, müssen bestehende Messsysteme verbessert werden bzw. überhaupt neue Systeme implementiert werden. Die Phase Analyze dreht sich schließlich um die Frage, welche Schlussfolgerungen aus den gesammelten Daten gezogen werden können. Mithilfe von statistischen Methoden sollen hierbei Muster, Aufwandstreiber und Anhaltspunkte für die Fehlerursache in den Daten gefunden werden. Wiederum auf die so bedeutenden Kundenanforderungen runtergebrochen, gilt es herauszufinden, warum der untersuchte Prozess die Kundenanforderungen bislang noch nicht im gewünschten Maße erfüllen konnte. In der Improve Phase kommt es zu Verbesserungsmaßnahmen, mit deren Hilfe die Fehler, Kosten und die Verschwendung in einem Prozess verringert bzw. eliminiert werden sollen. Da die DMAIC Phasen aufeinander aufbauen, müssen die Verbesserungsmaßnahmen idealerweise insbesondere mit den Erkenntnissen aus der Define Phase übereinstimmen. Das Ziel der Control Phase besteht darin, die Erfolge (aus den früheren Phasen) des Projekts nachhaltig sicherzustellen. Die hiermit verbundenen Maßnahmen umfassen beispielsweise die Dokumentation von Anweisungen und Richtlinien oder auch Schulungen der Mitarbeiter. Darüber hinaus erfolgt eine Überwachung der verbesserten bzw. neuen Prozesse mithilfe statistischer Methoden.

Von Black Belts und Green Belts

Für die erfolgreiche Umsetzung von Six Sigma (Projekten) im Unternehmen kommen speziell ausgebildeten Mitarbeitern besondere Rollen zu. Typischerweise unterscheidet man mitunter - in Anlehnung an asiatische Kampfsportarten - anhand unterschiedlicher Gürtel-Farben. Die Beschreibung der Rollen bringt auch den Projektcharakter von Six Sigma sehr schön zum Ausdruck.

Insgesamt betrachtet wird Six Sigma mit einer kleinen Anzahl an Spezialisten im Unternehmen umgesetzt. Idealerweise verfügen diese Personen neben analytisch-statistischem Denken auch über entsprechende Soft Skills wie Team-, Kommunikations- und Führungsfähigkeit. Als Faustregel für die sinnvolle Anzahl an Black Belts usw. gilt, dass 1 Black Belt auf 100 Mitarbeiter im Unternehmen kommt und dass 1 Master Black Belt ca. 20 Black Belts betreuen soll. Jeder Black Belt soll wiederum ungefähr 20 Green Belts unterstützen.

Lean Six Sigma als vielversprechende Weiterentwicklung

Ungefähr seit der Jahrtausendwende wird immer öfters Six Sigma mit Lean Management kombiniert - bezeichnet als Lean Sigma, Lean Six Sigma oder Six Sigma + Lean. Lean Management wurde ursprünglich in der Automobilindustrie verwendet und hat zum Ziel, schlanke Abläufe bzw. Systeme zu schaffen, indem Verschwendung eliminiert wird und wertschöpfende Tätigkeiten optimiert werden. Ähnlich wie bei Six Sigma werden auch die Kundenbedürfnisse bei Lean Management großgeschrieben - demnach passiert Wertschöpfung dort, wofür der Kunde gewillt ist, etwas zu bezahlen (oftmals sind dies hohe Qualität, schnelle Lieferzeiten, hohe Flexibilität oder ein niedriger Preis). Für den Erfolg ist es jedenfalls wichtig, die Kundenbedürfnisse zu erkennen und zu berücksichtigen. Hierbei kann es sinnvoll sein, die Kundenanforderungen in drei Kategorien zu unterteilen: unverzichtbar; je mehr, desto besser sowie "nice to have". Die Abstufung ist so zu interpretieren, dass bei Nichterfüllung eines Unverzichtbar-Kriteriums der Kunde typischerweise unzufrieden ist, währenddessen am anderen Ende der Bandbreite eine "nice-to-have"-Leistung die Kundenzufriedenheit nur geringfügig erhöht. Ebenso können schlanke Strukturen nur dann gut aufgebaut werden, wenn alle Abläufe vom Auftragseingang bis zur Lieferung bzw. Leistungserbringung an den Kunden eindeutig ersichtlich sind und dann in einem nächsten Schritt wertschöpfende Tätigkeiten von nichtwertschöpfenden Tätigkeiten unterschieden werden können. Neben dem sogenannten "Fluss-Prinzip" (Ziel dabei ist, dass sich alle Abläufe im Fluss befinden) ist auch das "Pull-Prinzip" für Lean Management wichtig. Folglich und wiederum Kundenorientierung folgend, sollte der Fertigungsprozess erst angestoßen werden, wenn die Bestellung ausgelöst wurde. Dadurch können im Idealfall Transportkosten und Lagerhaltungskosten gespart werden. Schließlich sollen auch bei Lean Management alle Aktivitäten immer wieder verbessert werden, weshalb auch die Mitarbeiter angehalten sind, (oftmals in kleinen Teams) ihre Ideen einzubringen. Lean Six Sigma schließlich soll die Stärken beider Managementprinzipien kombinieren, indem Six Sigma die Effektivität der Prozesse erhöht und Lean Management die Effizienz in den Geschäftsabläufen steigert - die Kundenbedürfnisse sind dabei ein wichtiges verbindendes Element.

Vor- und Nachteile verschiedener Reporting-Ansätze

[Januar 2020]

Reporting stellt einen zentralen Controlling-Prozess im Unternehmen dar, welcher für das Management - nicht zuletzt als Grundlage für Entscheidungen - von großer Bedeutung ist. Im Detail schafft das Reporting (Berichtswesen) eine Verbindung zwischen Entstehungs- und Anwendungsort der Daten. Wesentliche Teilaufgaben des Reportings sind die Datengewinnung, -dokumentation, -aufbereitung und auch die zur Verfügung Stellung von entsprechend ausgewerteten Datenmengen. Typischerweise kann bei der Ausgestaltung des Reportings und damit einhergehenden Prozessen zwischen mehreren Modellen unterschieden werden. Maßgebliche Erfolgsfaktoren bzw. Knackpunkte bei den unterschiedlichen Ansätzen zeigen sich im Ressourcenaufwand, in der zur Anwendung kommenden Datenbasis und auch in der Durchgängigkeit des Reportings.

Bezogen auf den "klassischen Reporting-Ansatz", der zentrales und dezentrales Reporting parallel umfasst, ergeben sich oftmals, insbesondere durch das dezentrale Berichtswesen, einige Herausforderungen. Eine augenscheinliche Schwäche kann in Doppelgleisigkeiten liegen, die auch durch nicht eindeutig definierte Verantwortlichkeiten bedingt sein können. Insbesondere durch die dezentrale Ausrichtung des Reportings können auch Redundanzen auftreten, welche einen insgesamt hohen Ressourcenaufwand bedingen. Bei dem klassischen Reporting-Ansatz kann es sogar bei zentralen Vorgaben dazu kommen, dass am Ende keine durchgängigen und einheitlichen Reportingergebnisse vorliegen. Zum Teil zeigt sich diese Mehrgleisigkeit auch in uneinheitlichen Berichtdesigns. Schließlich ist manchmal auch die Datenbasis eine Herausforderung - nämlich dann, wenn keine einheitliche Datenbasis zur Verfügung steht und etwa unterschiedliche Datenstrukturen, KPI-Definitionen oder auch Berichtsstichtage verwendet werden. Der große Nachteil liegt dann in der fehlenden Vergleichbarkeit der Ergebnisse des Reportings und einen Schritt weitergedacht auch in dem fehlenden Vertrauen gegenüber dem Reporting.

Mit Informationstechnologie und Standardisierung zur "Reporting-Factory"

Vor allem durch Standardisierung und Automatisierung ist es auch zu einer Zentralisierung des Reportings (in einer Reporting-Factory) gekommen, wodurch die Effizienz des Berichtswesens gesteigert werden soll. In einer solchen Reporting-Factory findet die Industrialisierung des Reportings statt, in deren Rahmen insbesondere Skaleneffekte erzielt werden können. Im Gegensatz zum klassischen Reporting-Ansatz können bei diesem Reporting-Ansatz Doppelgleisigkeiten besser vermieden und Prozesse standardisiert und gebündelt abgearbeitet werden. Weitere Stärken liegen in dem Fokus auf wertschöpfenden Aktivitäten (das Reporting soll kritische Analysen und Beratung anstelle von aufwendiger Datenbeschaffung und -aufbereitung durchführen) wie auch in einer einheitlicheren Datenbasis. Eine solche Datenbasis wird typischerweise eher unternehmensweit anerkannt und schafft Transparenz und erhöhtes Vertrauen in das Berichtswesen.

Die Zentralisierung des Reportings in einer Reporting-Factory bringt allerdings nicht nur Vorteile mit sich, sondern ist auch durch nicht zu unterschätzende Herausforderungen gekennzeichnet. Der Name Reporting-Factory suggeriert bereits, dass die Vorteile typischerweise erst ab einer gewissen Unternehmensgröße lukriert werden können - nicht zuletzt durch die erhöhte organisatorische Komplexität und durch den beträchtlichen Implementierungsaufwand. Ebenso kann in der Reporting-Factory eine gewisse Distanz des Reportings vom "Daily Business" eintreten, wodurch sich die Steuerungsrelevanz der Berichte verringern kann. Im laufenden Betrieb zeigt sich überdies manchmal die Problematik eingeschränkter Flexibilität (zentrale Systeme sind regelmäßig weniger flexibel bei kurzfristigen Änderungen oder Ergänzungen als dies bei dezentralen Strukturen der Fall ist) wie auch gesteigerter Komplexität in der Organisation insgesamt. So könnte es z.B. nötig sein, die mit dem Betrieb der Reporting-Factory verbundenen Kosten im Wege einer Konzernumlage auf die anderen Gesellschaften zu verteilen.

Kann die Kombination aus beiden Ansätzen zum Erfolg führen?

Durch die gut abgestimmte Kombination mit und Koordination zwischen zentralem (Reporting-Factory) und dezentralem Reporting-Ansatz kann es gelingen, die Vorteile der beiden dargestellten Reporting-Ansätze in den Vordergrund zur rücken und die Schwachpunkte möglichst hintanzuhalten. Auch bekannt unter dem Begriff der intelligenten Zentralisierung werden zentral Vorgaben definiert, jedoch bei der Erstellung des Reportings sowohl zentral als auch dezentral vorgegangen. Wichtiger Erfolgsfaktor dabei ist auch eine zentrale Datenbasis, etwa in Form eines (zentralen) Data-Warehouses.

Drucken