Der » Kollaps « der Wellenfunktion: Allzu oft missverstanden!


Selbst weltweit bekannten Physikern und Buchautoren ist oft nicht wirklich klar, was der “Kollaps” der Wellenfunktion — ein Begriff, den die Kopenhagener Gruppe unter Führung von Niels Bohr geprägt hat — denn nun wirklich bedeutet.

So schreibt z.B. Michio Kaku auf Seite 307 seines Buches Die Physik des Unmög­lichen (Rowohlt 2008):


    Wir existieren gleichzeitig als Summe aller denkbaren Zustände: nicht schwanger, schwanger, als Kind, als ältere Frau, als junges Mädchen, als Karrierefrau und so weiter.

 
Aber diese seine Aussage ist natürlich Unsinn. [Denn wäre sie richtig, müsste man ja auch feststellen, dass Schrödingers Katze selbst noch nach dem Öffnen der Box in beiden Zuständen existiere: einmal als tote Katze und zum anderen auch als lebende Katze. Das aber hat auch die Kopenhagener Interpretation niemals so gesehen.]

Dass die unglückliche Wortwahl der Kopenhagener Gruppe — genauer: ihr damals noch allzu lückenhaftes Verständnis dessen, was beim “Kollaps” wirklich vorgeht — den Physikern fast ein ganzes Jahrhundert lang das Verständnis der Quanten­mecha­nik deutlich erschwert hat, zeigt sich nicht nur an Kakus Aussagen, sondern z.B. auch an Einstein, Wheeler, Everett III und an all ihren Zeitgenossen bis hin zu Niels Bohr selbst.

Kaku schreibt auch (Seite 307 unten):


    Wenn Einstein Gäste hatte, zeigte er auf den Mond und fragte: » Gibt es den Mond, weil eine Maus in anschaut? «

 
Und Kaku liefert seine ganz persönliche Antwort auf diese Frage gleich mit, indem er schreibt:
 

    In gewisser Hinsicht könnte die Kopenhagener Schule diese Frage mit einem Ja beantworten.

 
Er bezieht sich damit auf die von Bohr gepredigte Meinung, dass erst der Zusam­men­stoß eines Quantensystems mit einer Messapparatur — sein Zusammenstoß mit dem “Beobachter” also, wie man früher sagte — den Kollaps hervorruft und so das Quantensystem aus einem nicht wahrnehmbaren Überlagerungszustand, der stets nur eine Menge von Möglichkeiten darstellt, in einen sichtbaren, konkreten Zustand versetzt.

Das Missverständnis, dem viele Physiker dann aufsaßen (und dem Kaku sogar heute noch zum Opfer fällt) besteht darin, sich nicht klar zu machen, dass es sich beim “Kollaps” keineswegs um einen bleibenden Kollaps, sondern vielmehr nur um eine Korrektur der Wellenfunktion handelt:

Die Kollision von Messapparatur und beobachtetem Quantensystem nämlich hat Wir­kung, und die besteht darin, dass sich Quanten spontan vereinigen oder zerlegen, d.h. die Natur

  • macht  e i n e  von vielen Möglichkeiten zu Wirklichkeit,

  • verwirft alle anderen

  • und korrigiert dem entsprechend sofort auch die Wellenfunktion des Universums (bzw. des jeweils betrachteten Objekts).

 
Kurz: Der sog “Kollaps” der Wellenfunktion bedeutet nicht, dass sie in sich zusam­menbricht — er bedeutet nur, dass sie sich korrigiert. Und diese neue Version ihrer selbst unterscheidet sich in ihrer Qualität überhaupt nicht von der alten (!).

Wäre das Niels Bohr, Everett III, seinem Doktorvater Archibald Wheeler und all ihren Zeitgenossen schon klar gewesen, wäre es ganz sicher gar nicht erst zu Everetts Viele-Welten-Theorie gekommen.

Sie alle — Everett wohl ausgenommen — haben zwar irgendwie gespürt, dass seine Theorie nicht richtig sein kann, waren aber nicht in der Lage, sie zu ent­kräften.

Bohr hat sich deswegen zu Everetts Theorie überhaupt nicht geäußert — trotz des Dränges von Wheeler, der Everett extra nach Kopenhagen geschickt hatte, damit er Bohr seine Theorie präsentiere und Bohrs Argumente gegen sie erfahre. Weehler selbst war zwei Jahrzehnte lang unentschieden, hat sich dann aber doch explizit davon distanziert: Ohne allerdings sagen zu können, warum Everetts Theorie falsch sein müsse.

FAZIT also: Da für das Konzept “Kollaps der Wellenfunktion” ein Name gewählt worden war, der Konkreteres suggeriert hat als tatsächlich bekannt war, ist dieser Begriff nun schon fast 100 Jahre zu einem wirklichen Stolperstein für alle geworden, die bestrebt sind, die Quantenmechanik wirklich zu verstehen.

Ihnen allen sei gesagt: Der “Kollaps” der Wellenfunktion ist einfach nur ihre Anpassung an eine neu entstandene Situation. Und zu solch neu entstehenden Situation kommt es ständig und überall dort, wo Quanten kollidieren, verschmelzen oder neu entstehen.

Und so wissen wir jetzt ganz sicher: Der Mond, der Einstein seine provozierende Frage stellen ließ, extistiert natürlich auch dann, wenn niemand hinsieht — weder ein Mensch, noch eine Maus.

Das warnende Bauchgefühl aber, welches Einstein, Wheeler und Bohr signalisiert hat, dass der “Kollaps” wohl noch nicht so ganz verstanden sei, scheint heute einer ganzen Reihe von Physikern — Kaku etwa — zu fehlen. Und so hat sich denn auch lange Zeit niemand gefragt, ob man Everetts viele Welten — er selbst nannte sie “relative Zustände” — nicht vielleicht gründlich missverstanden hat.

Ich jedenfalls lehne die Viele-Welten-Interpretation, wie schließlich auch Wheeler, als absolut sinnlos ab: Es gibt kein einziges Argument dafür, dass sie richtig sein könnte.

Everett selbst hat, was erst Bryce DeWitt dann “viele Welten” nannte, stets nur als Möglichkeiten für kommende Zustände unserer Welt gesehen (konzipiert durch die Wellenfunktion des Universums). Leider hat ihn damals niemand so verstanden, da er diese Weltentwürfe “relative Zustände” nannte.

Richtig verstanden wurde Everetts (ungekürzte) Arbeit wohl erst durch Max Tegmark. Siehe Kapitel 8 seines Buches Our Mathematical Universe.
 

Kurioses am Rande:

Unter den wenigen Physikern, die selbst heute noch an Everetts Viele-Welten-Interpretation glauben, gibt es zwei, die geradezu abenteuerliche – und ganz sicher nicht zutreffende – Schlussfolgerungen daraus ziehen. Es sind dies:

(1) David Deutsch: In Kapitel 2 seines Buches The Fabric of Reality (1997) argumentiert er, dass die Interferenz hinterm Doppelspalt auf für uns unsichtbare, aus Paralleluniversen kommende Photonen zurückzuführen sei.

(2) Frank J. Tipler: In seinem Buch Die Physik der Unsterblichkeit schreibt er zunächst (auf S. 210):

    Natürlich ist es durchaus möglich, dass die Viele-Welten-Interpretation falsch ist: Die meisten Physiker sind dieser Ansicht. Doch die über­wältigende Mehr­heit der Leute, die sich mit Quantenkosmologie beschäftigen, akzeptie­ren die eine oder andere Version der Viele-Welten-Interpretation, einfach weil die Mathematik einen zwingt, sie zu übernehmen.

Noch unglaublicher kommt es dann auf Seite 220, wo er sagt:

    Es gibt noch einen weiteren Grund dafür, der Viele-Welten-Interpretaion gegenüber zumindest aufgeschlossen zu sein. Wenn sie richtig ist, können wir beweisen, was sich viele [ religiöse ] Leute als Wahrheit ersehnen:

    Indem ich von der Annahme ausgehe, dass menschliche Wesen quantenmechanische Objekte wie alles andere auch sind, kann ich beweisen, dass es jedem einzelnen von uns möglich ist, eines Tages aufzuerstehen und ewig zu leben.

    Ferner kann ich, wenn ich die Viel-Welten-Interpretation auf die Ontologie der Quantenkosmologie anwende, beweisen, dass wir wahrscheinlich einen freien Willen haben. In Kapitel VII werde ich argumentieren, dass umgekehrt eine Viele-Welten-Ontologie logische Voraussetzung für freien Willen ist.

Kann angesichts solcher Behauptungen noch irgend jemand davon überzeugt sein, dass nicht auch prominente Wissenschaftler hin und wieder einfach nur Unsinn in die Welt setzen?

Tiplers Ehre zu retten, sei nicht verschwiegen, dass er in seinem Buch auch darauf hinweist, dass physikalische Aussagen stets nur als wahrscheinlich wahr einzu­stufen sind. Es kann uns nämlich niemand garantieren, dass die physika­lischen Modelle, aus denen sie abgeleitet wurden, nicht doch irgendwann verfeinert, oder in Teilen falsifiziert werden.

Das Rätsel der Zeit – wie lösbar ist es?


Es ist bisher niemand gelungen, ein Phänomen der Natur zu finden, das im Wider­spruch zu Einsteins allgemeiner Relativitätstheorie steht.

Ganz im Gegenteil: Selbst ihre Vorhersage, dass Objekte gleicher Art, die unter­schiedlich stark beschleunigt werden, aus Sicht eines Beobachters, der sie alle im Blick hat, unterschiedlich schnell altern, erfährt heute über im Labor einfach durch­führbare Experimente eindrucksvolle Bestätigung: Myonen, die beschleunigt wer­den, existieren länger (sie altern langsamer) also solche, die unbeschleunigt sind – und das gut nachprüfbar in genau dem Ausmaß, wie wir auf Grund von Einsteins Theorie erwarten können.

Dies zeigt klar, dass die Zeit auf keinen Fall ein erst im Beobachter ent­stehender subjektiver Eindruck sein kann.

Was aber ist sie dann? Wie kommt sie zustande?

Bislang ist nur klar: Der Zeitbegriff der allgemeinen Relativitätstheorie hat andere Eigenschaften als Zeit im Sinne unserer Alltagserfahrung. Denn:

Noch zu Einsteins Lebzeiten konnte Kurt Gödel, ein berühmter Logiker, nachweisen, dass die allgemeine Relativitätstheorie auch Formen der Raumzeit kennt, die es un­möglich machen, zwischen Vergangenheit und Zukunft zu unterscheiden:

Es kann Wege durch die Raumzeit geben, die eine Folge von Ereignissen sind, auf der die Zeit keine asymmetrische Ordnung mehr darstellt — die Vergangenheit aller Ereignisse ist dort gleichzeitig auch ihre Zukunft, und in die Zukunft zu reisen be­deu­tet dort, gleichzeitig auch auf einer Zeitreise in die Vergangenheit zu sein.

Einstein hat Gödels Argumentation als fehlerfrei eingestuft, hat dem Ergebnis aber keine große Bedeutung beigemessen, da er ohnehin der Meinung war, dass kein noch so gutes mathematisches Modell durch die Natur geschaffene Objekte in jeder Hinsicht genau und vollständig beschreiben kann. Mathematik, so seine Meinung, sei noch keine Physik.

Dennoch bleibt festzuhalten:

Einsteins Theorie erzwingt nicht, dass Zeit sich grundsätzlich nur einmal durchleben lässt. Ob wir da aber wirklich über dieselbe Zeit sprechen, die — durch nichts und niemand aufzuhalten — uns unwiderbringlich verstreicht, ist eine bislang noch keineswegs geklärte Frage.

Genaueres dazu findet sich auf den Seiten:

 
 

Quanten, Elementarteilchen, Kosmos: Fakten und neue Ideen


Wer sich als angehender Student der Physik (oder z.B. auch der Philosophie) für Diskussionen zu Quantenphysik, Elementarteilchenphysik oder Kosmologie interessiert, wird z.B. in Manus Zeitforum passende Diskussionspartner finden.

Eine Zusammenfassung von Ergebnissen der dort ab Mitte 2012 geführten Gespräche findet sich hinter folgenden Links:


Bewusstsein:


Biologie:


Dekoharenz:


Elementarteilchen:


Entropie:


Evolution:


Existenz:


Geist, freier Wille:


Illusion:


Information:


Kosmos:


Leben:


Materie:


Natur:


Kosmologie und mehr:


Philosopie:


Physik:


Physikalische Modelle:


QBits und Quanten-Computer:


Quantensysteme:


Quantenverschraenkung:


Quarks:


Relativ:


Schwarze Löcher:


Software:


Tunneleffekt:


Universum:


VSL Theorien:


Welle-Teilchen-Dualismus:


Welt:


Zeit:

 

Software-Qualität – eine oft böse Überraschung


Wer für Software-Entwicklung bezahlt, hält es für selbstverständlich, qualitätsvolle Software zu bekommen. Welch ein Irrtum das sein kann!

Selbst weltweit anerkannte IT-Dienstleister (s.u. Beispiele) liefern hin und wieder absolut unbrauch­bare Software und bescheren so ihren Kunden Verluste in Millionen-Höhe.

Warum nur fühlen sich Software-Entwickler so wenig für die Qualität ihrer Erzeugnisse verantwortlich?

Warum nur sehen sie Qualität so gar nicht als eines ihrer wichtigsten Ziele?

Liegt es daran, dass ihre Auftraggeber Qualität nur allzu pauschal fordern (und denken, sie nicht extra bezahlen zu müssen)?

Traurige Tatsachen sind:

  • Wartbarkeitsaspekte — für Eigentümer und Betreiber der Software extrem wichtig — adressiert kaum jemand: Wie sich die Total Cost of Ownership niedrig halten lässt, diskutieren Entwickler nicht wirklich (sie müsste vom Auftraggeber schon explizit gefordert sein, …).
     
  • Benutzerfreundlichkeit scheint Entwicklern völlig egal (so ergab eine Studie aus 2012).

 

Eine 2001 im Auftrag des deutschen Forschungsministeriums erstellte Studie kam zum Ergebnis: Für Software-Dienstleister ist Qualität ein Fremdwort, und so ist es heute noch:

  • Im Früjahr 2013 bestätigt ein SAP-Team diese Einschätzung ganz unfreiwillig im wirklich übelsten Sinne des Wortes: durch Auslieferung einer absolut unbrauchbaren Neuimplementierung des Payroll Systems der kalifornischen Behörden auf der SAP Plattform (siehe [1], kürzer [CW]).
     
  • Ähnliches war einige Monate früher IBM passiert (siehe [2]). Diesem Team misslang die Neuimplementierung eines Order Management Systems. Man streitet sich jetzt vor Gericht um einen zweistelligen Millionenbetrag.
     
  • Vorher schon hatte IBM in Australien Software abgeliefert, die unbrauchbar war: "The system, which was delivered 20 months after deadline and 300 per cent over budget, led to 70,000 staff in Queensland’s health system being underpaid, overpaid or not paid for months."
     
  • Leider sind das keineswegs die einzigen Beispiele für in den letzten Jahren komplett schiefgelaufene, wirklich große Software-Entwicklungsprojekte. Siehe auch Zahlen dazu, z.B. von 2010.
     
    Man muss sich ernsthaft fragen, ob gängige Software-Entwicklungsmethodik (insbesondere die neue, sog. agile) nicht ganz grundsätzlich nur für Projekte kleiner oder mittlerer Größenordnung funktioniert.

    Wie sonst nämlich wäre es erklärbar, dass man mit den heute zur Verfügung stehenden wunderbaren, kaum noch verbesserungsfähigen Entwick­lungs­werkzeugen an der Neuimplementierung von Anwendungen scheitert, die man vor 30-40 Jahren schon einmal – und damals doch durchaus erfolgreich – geschaffen hatte (!).

    Oder sind vielleicht die Einkäufer schuld, die davon ausgehen, dass der jeweils billigste Anbieter das Projekt schon stemmen werde? Wollen sie Qualität zum Nulltarif?

 

In 2010 schrieben Wissenschaftler der Carnegie Mellon University, die Software-Entwicklungsprozesse untersucht hatten: The software industry is the only modern high-tech industry that ignores quality until test.

Inzwischen aber zeigt sich noch Schlimmeres:

Selbst wirkungsvoller Test gelingt Software-Entwicklern nicht wirklich (siehe etwa [3], [4] und [5] sowie The Healthcare Go Live Debacle).

Wie wenig effektiv Tester bisher sind, spiegelt sich auch wider in Gartners Erkennt­nis: 40% of problems are found by end users.

Wie lange noch — so frage ich — werden Auftraggeber sich das gefallen lassen?

Und insbesondere: Wann endlich werden Software-Entwickler die Konstruktion von Qualität ebenso ernst nehmen, wie das Konstruieren der Software selbst?

Bisher ist das Streben nach Qualität auf Seiten der Entwickler selten mehr als ein Lippenbekenntnis.

Tatsache ist: Wo Termin und Budget eng werden, wird weniger getestet — mit oft schlimmen Folgen (immer für den Auftraggeber, nicht selten auch für den Auftrag­nehmer). Beide Vertragspartner sollten sich dessen bewusst sein und nicht ver­säumen, dem ganz entschieden zu begegnen: Auf jeden Fall weit effektiver als bisher zu beobachten.

Den oft jungen Entwicklern sei gesagt:

Zu glauben, dass sogenanntes agiles Vorgehen die früher übliche, peinlich genaue Dokumentation aller zu entwickelnden Funktionalität überflüssig macht, ist ein ganz gewaltiger Irrtum: Der Wille, praktisch alles, was man produziert, in jedem noch so unfertigen Zustand gerne dem Anwender zu zeigen (damit der sage, wo er was anders haben möchte), mag ja gut gemeint sein, ist aber einfach nur naiv, denn solches Vorgehen überfordert den Anwender – man schiebt ja so nur eigene Verantwortung auf ihn ab.

Kluge Kunden durchschauen das und akzeptieren es nicht.

Vorzugehen, wie im Agilen Manifest gefordert, kann nur gut sein für prototypische Entwicklung in sehr kleinen Teams. Viele der heutigen Entwickler wollen das nicht einsehen. Methodiker, die ihnen Einhalt gebieten, gibt es nicht mehr wirklich. Es fehlt wohl die Einsicht, dass sie zu bezahlen sehr gut angelegtes Geld wäre …

SCRUM-Verfechter, eine spezifische Subklasse der Agilisten, übersehen, dass sich mit täglichen Stand-up-Meetings nur Mikroprozesse steuern lassen — auf keinen Fall aber Großprojekte.

Droht uns eine neue Software-Krise?


Wohl noch nie hat sich einer der weltweit wichtigsten Software-Produzenten der­maßen gründlich blamiert wie eben jetzt die SAP. Was geschah?

Mitte 2006 vergab der Staat Kalifornien ein Projekt, dessen Inhalt es sein sollte,
das damals schon 30 Jahre alte staatliche Payroll System auf SAP-Basis neu zu implementieren.

Solche Neuentwicklung sollte das Problem beseitigen, dass kaum noch Program­mierer zu finden waren, die die alte Technologie gut genug verstanden, volle Funktionsfähigkeit der Anwendung auf Jahre hinaus zu garantieren.

Nachdem der ursprüngliche Auftragnehmer, damals BaringPoint, nach 3 Jahren – pikanterweise erst zum geplanten Projektende-Termin (!) — eingestehen musste, dass man mit einer Neuimplementierung dieser Anwendungs hoffnungslos über­fordert war, wurde das Projekt ein zweites Mal begonnen: jetzt aber, um wirklich sicher zu sein,

  • mit SAP als Auftragnehmer
  • und unter der Nebenbedingung dass zunächst mal in einer Pilotphase nur ein ganz kleiner Teil der Anwendung – weniger als 5 Prozent der gesamten Funktionalität – entwickelt und in Betrieb genommen werden sollte.

Schon diese Pilotphase aber ging so gründlich daneben, dass auch SAP – d.h. der für Systeme dieser Art wohl kompetenteste Entwickler weltweit (!) – im Januar 2013 gefeuert werden musste.

Wie gründlich die SAP versagt hat geht hervor aus einer eben erst (Feb 13, 2013) herausgegebenen Pressemitteilung des State Controller Office (SCO), das als Auftrag­geber fungiert. Man liest dort u.A.:

    One fact is particularly troubling with respect to SAP’s lack of progress:

    The pilot phase only covers 1,300 SCO employees and two bargaining agreements with fairly simple payroll requirements. After eight months and little progress, the SCO cannot responsibly proceed to the second phase and expose thousands more State employees to payroll errors.

    Nor can the SCO have any confidence that SAP can scale the failed system to cover the State’s 240,000 employees, operating out of 160 different departments, under 21 different bargaining units.

    The errors in the SAP system affect everyday lives: Not only have SCO employees been paid too much, or too little, they and their family members also have been denied medical services despite paying for the insurance coverage. Payments to the State’s dental, vision and deferred compensation partners have been incorrect and delivered late. Improper deductions have been taken, payments have been made to the wrong payee, payroll and pensionable wages have been incorrectly calculated, and union deductions incorrectly determined.

    To stabilize payroll for its employees, the SCO is rolling back its 1,300 employees to the legacy system that is currently and reliably paying all other 240,000 State employees.

 
Derzeitiger Projektstand also:

Fast 7 Jahre nach der ersten Auftragsvergabe

  • Ist das ursprüngliche Budget von 70 Mio. USD schon um etwa das 4-fache überschritten,
  • und man ist zurückgeworfen auf den allerersten Schritt (der jetzt darin be­steht, nun schon zum dritten Mal einen geeigneten Auftragnehmer finden zu müssen).

 
Wer jetzt denkt, dieses Beispiel sei ein einmaliger Ausrutscher, also eher nicht typisch, wird durch andere Beispiele schnell eines Besseren belehrt:

  • Beispiel 1: Noch glimpflich abgegangen ist das New York CityTime Projekt, wo es ebenfalls um die Modernisierung eines Payroll Systems ging: The New York CityTime project was planned in 1998 to cost around $63 million and take five years to complete.

    Tatsächlich fertiggestellt wurde es – einer ganz offensichtlich viel zu wenig kompetenten Entwicklungsmannschaft wegen – erst im Sommer 2011 mit einer Überschreitung des ursprünglich geplanten Projektbudgets von sage und schreibe um gut das 12-fache.

  • Beispiel 2: In Australien endete 2010 ein Payroll System Projekt in einer absoluten Katastrophe: "Thousands of nurses were overpaid, underpaid or not paid at all when IBM rolled out its faulty system in March 2010." Mit dafür verantwortlich war absolut unprofessionelles Projektmanagement auf Seiten des Auftraggebers.

    Auch dieses Beispiel ist Beweis dafür, dass Arbeiten für den Entwurf von Software — und ganz besonders auch die für den Test von Software — heute kaum professioneller erledigt werden als noch zu Zeiten der Softwarekrise Ende der 60-iger Jahre.
     

  • Beispiel 3: Im November Ende 2012 kommt es zum Eklat über ein von IBM völlig unprofessionell angegangenes Projekt, in dem der Auftraggeber dem Auftragnehmer (IBM) vor Gericht zerrt mit der expliziten Anschuldigung, er habe zur Entwicklung des unternehmenskritischen Systems inkompetente Entwickler eingesetzt und sich lange Zeit geweigert, das zuzugeben.

    Schließlich hätten sogar IBM-Mitarbeiter das, was dort entstand und in Betrieb genommen wurde, die schlechteste SAP-Implementierung genannt, die sie je gesehen hätten.

    Zum endgültigen Bruch mit dem Auftraggeber (Avantor) kam es, nachdem IBM ihm einer Problembehebung wegen zumuten wollte » to cancel every pending order and reset the entire System in light of pervasive warehouse problems. IBM said this was necessary to discover the root cause of the problem. Ultimately, IBM acknowledged that it had to engage in extensive remedial efforts to redesign and rebuild the System that Avantor hired it to deliver. « (Quelle: Avantors Aussage).

 
Fragen wir uns deswegen:

  • Wie kommt es, dass es so extrem schwierig erscheint, mit der heute zur Verfügung stehenden (sehr ausgereiften) Technologie zu erreichen, was man mit längst überholter doch schon mal erreicht hatte: z.B. funktionstüchtige Payroll oder Order Management Systeme zu bauen?
  • Muss man da nicht glauben, dass moderne Projektteams einfach nicht mehr systematisch genug arbeiten?

 
Dieser schlimme Verdacht liegt wirklich nahe, und Ursache solcher Mängel könnte gut sein, dass junge Software-Entwickler heute glauben, UML, SCRUM und Agiles Vorgehen (missverstanden im Sinne des Agile Manifesto) seien der Weisheit letzter Schluss.

Nur ältere Kollegen — solche mit Erfahrung aus den 80-er Jahren — scheinen zu wissen, dass vor allem systematische, gut pflegbare, stets aktuelle Dokumentation von Anforderung und Lösung das Rückrat erfolgreicher Projekttechnik ist.

Auch sollte man einsehen, dass der berechtigte Wunsch nach agilem Vorgehen (im richtig verstandenen Sinne) sich kaum mit dem heute allgegenwärtigen Wunsch nach Festpreisen verträgt.

Wo Einkäufer sich beharrlich weigern, das einzusehen, steigt das Risiko, am Ende eine wenig funktionsgerechte Lösung zu haben.
 

Die Achillesferse aller Software-Entwickler


Wissenschaftliche Untersuchungen (z.B. eine der Carnegie Mellon University aus 2003) belegen, dass moderne Software, wenn sie in Betrieb genommen wird, i.A. immer noch bis zu fünf Fehler pro 1000 Lines of Code enthält; sprich: etwa 1 Fehler auf je 3 DIN A4 Seiten manuell erstellten Source Codes.

Selbst im besten untersuchten Programm – bestehend aus 10.000.000 Lines of Code – fand sich immer noch 1 Fehler in je 7500 Zeilen. Wirklich vorhanden waren wohl mehr, denn in großen Systemen entdeckt man niemals alle.

Wären mathematische Publikationen auch nur annähernd so fehlerhaft, wäre die Mathematik als Wissenschaft längst in sich zusam­men gebrochen (es baut dort ja Neues stets auf Älterem auf).

Wir sehen: Die Informatik — wenigstens aber ihre Technik zur Qualitätssicherung — steckt heute wohl noch in Kinderschuhen, die vergleichbar sind mit denen, die die Mathematik noch vor Christi Geburt trug.

Auf jeden Fall ist Software heute noch weit davon ent­fernt, so fehlerfrei zu sein, wie die Ergebnisse der Mathematiker das sein möchten (und i.A. auch wirklich sind).

Siehe auch:

 
Dass es wirklich höchste Zeit wird, zeigt eine ganz unglaubliche Sicherheitslücke, die 2015 in gleich mehreren Tausend auf Mongo-DB basierender Anwendungen entdeckt wurde (aber nicht dem Datenbankhersteller anzulasten ist):

Wie die Computerwoche schrieb, handelte es sich um Konfigurationsfehler die zur Folge hatten, dass — im Prinzip wenigstens — jeder Internet-Nutzer mehrere Millionen Kundendaten nach Name, Adresse, E-Mail und Kreditkartennummer im Internet nicht nur abrufen, sondern auch manipulieren konnte.

Von den zahlreichen Entwicklern dieser vielen Anwendungen war ganz offen­sichtlich kein oder viel zu wenig ernsthafter Sicherheitstest durchgeführt worden.

Will da noch jemand behaupten, sie hätten professionell genug gearbeitet?

 

PS: Im Artikel Dogma-driven Development schreibt ein gewisser David Green recht treffend:
 
The trouble is, in this farcical echo chamber of an industry, where the lessons of 40 years ago still haven’t been learnt properly. Where we keep repeating the mistakes of 20 years ago. Of 10 years ago. Of 5 years ago. Of 2 years ago. Of last week. For Christ’s sake people, can we not just learn a little of what’s gone before?

Man ist versucht zu fragen: Warum gestatten Auftraggeber den Software-Entwicklern derart unprofessionell zu arbeiten? Zählt denn wirklich nur, dass sie einen Festpreis einhalten? Warum interessiert die Auftraggeber kaum die abgelieferte Qualität? Fühlt man sich unfähig, sie zu beurteilen?

 

Notwendiges Wissen kompetenter Software-Entwickler


Kompetente Software-Entwickler wissen und beherzigen:
 


 

Gequantelte Zeit — das genauere Modell der Zeit?


Meine Theorie der Zeit — siehe [Idee] und [Diskussion] — sagt, dass in unserem Universum die Zeit nur in Elementar­ereignissen entsteht. Die aber kann man als die Knoten eines gerichteten Graphen sehen, dessen Kanten den Weg je eines Elemen­tarteilchens von seinem Geburtsort (Elementarereignis 1) hin zu seinem Todesort (Elementarereignis 2) darstellen.

Mindestens dann, wenn so ein Quant mit Lichtgeschwindigkeit reist — wie Photonen das tun (und fast alle Bosonen) —, vergeht für dieses Teilchen ja keinerlei Zeit (so sagen uns Einsteins Spezielle und Allgemeine Relativitätstheorie: SRT und ART). Dies spricht für meine Theorie. Gegen sie scheint zu sprechen:

Für Quanten, die Ruhemasse haben, vergeht auf der Reise nun seltsamer Weise aber  d o c h  Zeit.

Anders gesagt: Sie nehmen einen Weg, der nicht nur durch den Raum, sondern auch durch die Zeit (der ART) führt. Nebenbei: Ich frage mich daher manchmal, ob ihnen statt der vermuteten “Reibung” am Higgsfeld nicht vielleicht eher das Aus­scheren aus der räumlichen Dimension der Raumzeit Masse verleiht.

Die sich netzartig verzweigende Zeit im Sinne meiner Theorie – und der Quantenphysik – scheint also nicht wirklich die Zeit der ART zu sein.

Da die ART aber noch nicht berücksichtigt, dass alles in der Natur gequantelt ist – sogar die Wirkung von Kräften und so vielleicht auch der Fluss der Zeit –, könnte es gut sein, dass sich irgendwann in der Zukunft mein Zeitbegriff als der richtigere und genauere herausstellt. Man wird sehen …
 

Tunneleffekt wohl doch verträglich mit Spezieller Relativitätstheorie!


 
In Tunneling Confronts Special Relativity schreibt Günter Nimtz:

Experiments with evanescent modes and tunneling particles have shown that (i) their signal velocity may be faster than light, (ii) they are described by virtual particles, (iii) they are nonlocal and act at a distance, (iv) experimental tunneling data of phonons, photons, and electrons display a universal scattering time at the tunneling barrier front, and (v) the properties of evanescent, i.e. tunneling modes are not compatible with the special theory of relativity.

Was Nimtz da sagt, ergab sich als seine Deutung der Ergebnisse von Experimenten, die er zusammen mit Alfons Stahlhofen durchgeführt hatte.

Die beiden Physiker deuten ihre Beobachtungen so, dass die SRT nicht im Tunnel gilt, der einen » Raum ohne Zeit « darstelle. Die gemessene Tunnelzeit entsteht an der Barrierenfront, während in der Barriere, im » Tunnel « also, keine Zeit verloren geht — Raum ohne Zeit, bestätigt durch [1]. Einer Vermutung von Richard Feynman folgend lasse der Tunneleffekt sich mit virtuellen Photonen erklären, die sich am Ende der Tunnelbarriere wieder in reelle Photonen zurückverwandeln.

Wie mir auffällt, ist diese Deutung aber keineswegs zwingend.

Die Ergebnisse der Experimente von Nimtz und Stahlhofen ebenso wie die noch genaueren einer anderen Forschergruppe können auch so gedeutet werden, dass die Wahrscheinlichkeit, das Quant im Tunnel — sprich: in der Barriere — anzu­treffen Null ist. Dies steht zwar im Widerspruch zu dem, was die Wellenfunktion des Quants zu sagen scheint, aber sie genau zu errechnen — als Wellenfunktion eines Quantensystems, welches Quant und Barriere umfasst, und am besten auch gleich in relativistischer Fassung — ist bisher wohl ohnehin noch niemand gelungen (!).

Diese neue, ganz andere Deutung dessen, was die Experimente zeigen, scheint mir weit sinnvoller als die von Nimtz, da man dann nicht gezwungen ist anzunehmen, dass innerhalb der Barriere die Spezielle Relativitätstheorie ihre Gültigkeit verliert.

Welcher Physiker möchte mir da widersprechen?

 

Physik, Gott und die Welt — einige Diskussionsergebnisse


Wer sich als Nichtphysiker wünscht, zahlreiche Ergebnisse der Quantenphysik und auch der Theoretischen Physik wenigstens annähernd zu verstehen, den könnten folgende Seiten interessieren:
 

 
Wer über Themen solcher Art gerne selbst eine Diskussion mit anderen beginnen möchte, der wird mit Sicherheit Gesprächspartner finden, wenn er als Diskussions­plattform Manus Zeitforum wählt.