POPULARITY
Unser Gehirn ist das komplexeste System im bekannten Universum. Bleibt das so? Wie lange noch? Selbst Gordon Moore, der berühmte Intel-Gründer, hat es schon 2007 gesagt: Das Mooresche Gesetz, nach dem sich die Transistor-Dichte und damit Leistung eines Computerchips ungefähr alle 18 Monate verdoppelt, wird bald nicht mehr gelten. Intel selbst plant seit 2016 nicht mehr danach, weil die Leistung konventioneller Computer nicht mehr exponentiell wachsen wird. Die quantenmechanischen Grenzen sind bald erreicht. Durch paralleles Rechnen wächst die Leistung weiter, doch bei weitem nicht mehr so schnell. Droht da wirklich das Ende der Computerrevolution? Entscheidend ist die Rechenleistung, nicht die genutzte Technologie. Und da steht uns Großes bevor. Längst arbeiten Wissenschaftler an neuen Computerkonzepten wie Quanten- und Bio-Computern für das Post-Silizium-Zeitalter. Neurocomputer, deren Rechenarchitektur die Informationsverarbeitung des menschlichen Gehirns als biologisches Vorbild dient, leiten eine neue Ära in der Computertechnologie ein. Weltweit werden neuronale Netzwerke entwickelt, deren künstliche Nervenzellen und Synapsen das menschliche Gehirn imitieren sollen. Die Informationsverarbeitung beruht nicht allein auf hoher Geschwindigkeit, sondern - wie in unseren Gehirnen - vor allem auf massiver Parallelität. Noch übersteigt die Leistungsfähigkeit des menschlichen Gehirns mit seinen 100 Milliarden Nervenzellen und 100 Billionen Synapsen die heutiger Computer noch um ein Vielfaches. Eben vor allem durch Parellelität. Kleinere neuronale Netzwerke lassen sich seit einiger Zeit mit hohem Energieaufwand auf gewöhnlicher Hardware simulieren, allerdings mit hohem Energieaufwand und mit bisher recht bescheidenen Leistungen. In den USA haben IBM-Forscher mit 'TrueNorth' einen von der Funktionsweise des Neocortexes inspirierten neuromorphen Prozessor vorgestellt, der über 256 Millionen Synapsen verfügt. Der jüngste IBM-Erfolg auf diesem Gebiet ist die Entwicklung künstlicher Neuronen aus Phase-Change-Material (Link), die sich wie ihre biologischen Vorbilder durch elektrische Impulse stimulieren lassen und Informationen analog speichern. Von der Leistungsfähigkeit des menschlichen Gehirns sind diese Systeme noch sehr weit entfernt. Was aber erwartet uns, sollte der Fortschritt auch hier exponentiell verlaufen? Die Kopplung von hoher Rechengeschwindigkeit und massiver Parallelität in der Informationsverarbeitung wird vor allem im Bereich der Künstlichen Intelligenz zu heute kaum vorstellbaren Durchbrüchen führen. Neuromorphe Computer können aus Erfahrungen lernen. Sie sind nicht durch vorprogrammierte Algorithmen bestimmt. Das hat auch Folgen für den Beruf des Software-Entwicklers: Zukünftige Computer könnten sich in Reaktion auf Informationen und Reize aus der Umwelt weitgehend selbst programmieren. An der ETH Zürich wurde eine Software entwickelt, die anhand von Fotos beliebiger Menschen erkennt, wie attraktiv oder genauer gesagt 'howhot' er oder sie ist. Was schön ist, musste sich die Software selbst erarbeiten. Basis hierfür waren Millionen Bewertungen tausender Nutzerprofile aus der Dating-App 'Blinq'. In zehn bis fünfzehn Jahren könnten Neurocomputer als Spezialisten im Bereich der Mustererkennung quasi überall im Einsatz sein. Auf der Grundlage der Daten von Milliarden vernetzter digitaler Archive, Geräte und Objekte werden sie in Entscheidungen treffen und versteckte Zusammenhänge entdecken. Sie werden zum Beispiel dabei helfen - komplexe Gefahrenlagen zu analysieren und das Vorgehen zu empfehlen, - den Verkehrsfluss autonomer Fahrzeuge zu optimieren, - weitaus bessere Diagnosen durch Auswertung und Analyse von Krankheitssymptomen stellen und - bessere Wettervorhersagen zu machen. Um 2030 könnte unser Gehirn auf Platz zwei stehen. Dann ist es nicht mehr das komplexeste System im bekannten Universum. Dann könnten es Neurocomputer sein. Dann könnte sich die Krone der Schöpfung selbst abgeschafft haben. Je erfolgreicher die Systeme werden, umso mehr werden wir uns ihnen anvertrauen – und in gewissen Bereichen Verantwortung an sie abgeben. Mittelfristig werden Neurocomputer damit auch auf dem Arbeitsmarkt in Konkurrenz zu uns treten. Es wäre nicht nur eine neue Ära der Computertechnologie, sondern vor allem eine neue Ära des Menschen. Und jetzt? Bis wir unsere Gehirne aufrüsten müssen, ist noch viel Zeit. Aber: Achten Sie darauf, dass Sie persönlich sich auf solche Aufgaben konzentrieren, die auch in Zukunft dem Menschen vorbehalten bleiben. Das sind vor allem Aufgaben mit wenig Routine und viel Emotion und Menschlichkeit. Und darauf, dass Ihr Unternehmen die neu entstehenden Möglichkeiten nicht ignoriert, sondern rechtzeitig nutzt, um wettbewerbsfähig zu bleiben.
Heute erzähle ich euch von den alten Mustern, die durch meine Erfahrungen in den letzten beiden Wochen getriggert wurden und wie ich sie für mich aufgelöst habe. Vor allem geht es um das Gefühl nicht dazuzugehören und die sozialen Ängste, die sich dadurch bei mir gezeigt haben. Außerdem teile ich einige Inspirationen zum Thema Scham und Selbstwert mit euch. Viel Freude beim Lauschen ♥️ Shownotes: Mein Event am 25.07.: Soul Circle für Frauen Kayleigh Jean's Tarot Readings Sarah Lesch's Lied Testament Teal Swan Video Selbstwert und Produktivität Teal Swan Podcast Interview Buch Advice Not Given: A Guide to Getting Over Yourself Buch Gedanken ohne Denker Buch Jetzt! Die Kraft der Gegenwart Schau auch hier vorbei: Facebook Gruppe: #Sinnfragen - wir Frauen wählen Liebe! Mein Instagram Account Mein YouTube Channel *Einige Links auf dieser Seite sind Affiliate-Links. Ich bin in verschiedenen Partnerprogrammen und werde am Umsatz jeder Bestellung über diese Links beteiligt, OHNE dass es Mehrkosten für die Kunden gibt.*
Im Anschluss ihres Erasmus-Auslandsjahr in Lyon hat sich Alexandra Krause als angehende Physikerin in den Bereich der Quanteninformatik vertieft. Dazu hat sie im Rahmen der Gulasch Programmiernacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung und dem ZKM in Karlsruhe über Quantum Speedup (video) vorgetragen und Zeit gefunden, uns auch im Podcast etwas über das Thema zu erzählen. Im Gegensatz zur klassischen Physik gelten in der Quantenmechanik eigene Regeln: So geht es hier um Teilchen in der Größenordnung von Atomen, wo die Begriffe Teilchen und Welle verschwimmen und der quantenmechanische Zustand unbeobachtet nur noch als Zustandsgemisch beschrieben werden kann. Genau diese Eigenschaft will man sich beim Quantencomputer zu Nutze machen, wo gegenüber dem klassischen digitalen Computer, der immer auf einzelnen festen Zuständen in Bits mit Logikgattern rechnet, der Quantenrechner pro Schritt in Qubits auf allen Zuständen gleichzeitig operiert. Das eigentliche Ergebnis erhält man dort erst bei der Messung, wodurch sich der reine Zustand des Quantensystems einstellt. Der Grover-Algorithmus ist eine bekannte Anwendung für einen Quantencomputer, der Datenbanken schneller als klassische Verfahren durchsuchen kann. Der Shor-Algorithmus kann hingegen mit einer Quanten-Fouriertransformation in polynomialer Zeit Zahlen in ihre Primfaktoren zerlegen kann. Damit werden viele assymetrische Kryptoverfahren wie das RSA-Verfahren obsolet, da sie auf der Schwierigkeit der klassischen Faktorisierung basieren. Shor hat in der gleichen Publikation auch ein Verfahren zur effizienten Berechnung von diskreten Logarithmen auf Quantencomputern veröffentlicht, so dass auch Kryptoverfahren auf elliptischen Kurven durch Quantencomputer gebrochen werden, die neben dem RSA-Verfahren Basis für viele Kryptowährungen sind. Zum jetzigen Zeitpunkt ist es der Experimentalphysik noch nicht gelungen, allgemeine Quantensysteme in einer Größe zu erschaffen, die für sinnvolle Anwendungen der Verfahren erforderlich wären. Die Schwierigkeit liegt darin, den Quantenzustand einzelner Qubits von der Umwelt abzukoppeln und nur für die Berechnung zu verwenden, wenn doch alles in der Umgebung in Bewegung ist. In der Größe weniger Qubits, die allgemeine Quantencomputer bisher erreichen konnten, wurden Zahlen wie 15 und 21 erfolgreich faktorisiert. Eine Hoffnung besteht hier auf dem adiabatischen Quantencomputer auf Basis adiabatischen Theorems, der von der Firma D-Wave Systems gebaut, und 2011 mit unvergleichlich vielen 128 Qubits auf den Markt gebracht wurde. Das Problem ist dabei, dass adiabatischen Quantencomputer im normalen Arbeitszustand keine universellen Quantencomputer sind, und hauptsächlich Optimierungsprobleme lösen können. Universelle Quantencomputer können im Circuit model anschaulich jedes herkömmliches Programm abbilden: Jedes klassische Logik-Gatter kann durch Hinzufügen weiterer Ausgänge reversibel werden, und dann als eine unitäre Abbildung oder Matrizen im Quantencomputer realisiert werden. Unitäre Abbildungen sind lineare Abbildungen mit der Eigenschaft, dass sie das komplexe Skalarprodukt zweier Vektoren nach der Abbildung erhalten, d.h. Vektoren behalten die gleiche Länge, und zwei Vektoren behalten den gleichen Winkel zueinander. Der Nachteil des reversiblen Ansatzes ist jedoch, dass dafür womöglich viele Bits benötigt werden, wenn man die Abbildungen nicht zuvor zusammenfassen kann. Theoretisch kann der adiabatische Quantencomputer auch universell sein, nur ist dazu ideal eine ungestörte Umgebung Voraussetzung, was in Realität nicht erreicht werden kann. Es verbleiben Optimierungsprobleme, die über den Hamiltonoperator abgebildet werden können: physikalische Prozesse möchten den energetisch niedrigsten Zustand zu erreichen. Ein Beispiel sind hier Minimalflächen, wie sie von Seifenhäuten und Seifenblasen angenommen werden- und auch zum Bau des Olympiageländes in München genutzt wurden. Im Schülerlabor für Mathematik in Karlsruhe kann man auch viele Experimente dazu durchführen. Wenn man ein Optimierungsproblem lösen möchte, so sind lokale Minima ein Problem- in ihrer Umgebung erscheinen sie als Lösung, sie sind es jedoch insgesamt betrachtet nicht. Eine Möglichkeit die lokalen Minima zu umgehen ist das Verfahren des Simulated Annealing. Hier wird durch externe Störquellen begünstigt, dass lokale Minima verlassen werden, um das globale Minimum zu erreichen. In Quantensystemen spielt hier beim Quantum Annealing zusätzlich der Tunneleffekt eine besondere Rolle, wodurch die Störung noch leichter von lokalen Minima hinweg streut. Dadurch ist das Quantum Annealing prinzipiell und aus der Theorie schneller- oder zumindest nicht langsamer- als das Simulated Annealing. Dabei ist das Quantum Annealing natürlich nur auf einem Quantencomputer effizient umsetzbar. Das ist dabei ein Beispiel für eine Quantensimulation auf einem Quantencomputer in dem Forschungsfeld, das sich mit der Abbildung und Simulation von Quantensystemen befasst. Damit ist der adiabatische Quantencomputer auf eine kleinere Klasse von lösbaren Problemen beschränkt, jedoch soll er dieses mit einer erheblichen höheren Anzahl von Qubits durchführen können- zur Zeit der Aufnahme waren dies mit dem D-Wave Two etwa 512 Qubits. Die Frage, ob diese adiabatischen Quantencomputer mit dieser großen Anzahl von Qubits wirklich als Quantencomputer arbeiten, wurde wissenschaftlich diskutiert: Im Artikel Evidence for quantum annealing with more than one hundred qubits legen die Autoren dar, dass der betrachtete adiabatische Quantencomputer starke Anzeichen für die tatsächliche Umsetzung des Quantum Annealing zeigt. In wie weit jedoch nun eine quantenbedingte Beschleunigung feststellen ist, diskutieren T. Rønnow und Mitautoren in der Arbeit Defining and detecting quantum speedup. Sie erhielten das ernüchternde Ergebnis, dass eine Beschleunigung durch Nutzung des betrachteten Quantensystems nicht eindeutig nachgewiesen werden konnte. Dagegen argumentierten V. Denchev et al. in What is the Computational Value of Finite Range Tunneling?, dass eine 100'000'000-fache Beschleunigung mit hoher Wahrscheinlichkeit gegenüber einem Einprozessor-System nachgewiesen werden kann. Ein Problem bei der Analyse ist, dass die betrachteten Algorithmen für den Quantencomputer in den Bereich der probabilistischen Algorithmen fallen, die Ergebnisse also eine Fehlerwahrscheinlichkeit besitzen, die durch mehrfache Ausführung verringert werden kann. In der Kryptographie werden probabilistische Primzahltests sehr häufig eingesetzt, die auch in diese Klasse der Algorithmen fallen. So wurde im ersten Paper das Verhalten des Quantencomputers in einer Vielzahl von Versuchen mit simulierten Algorithmen verglichen und mit hoher Wahrscheinlichkeit festgestellt, dass der D-Wave-Rechner tatsächlich den Quantum Annealing Algorithmus ausführt. Über den D-Wave-Rechner ist bekannt, dass die einzelnen Qubits durch supraleitende Ringe abgebildet sind und die beiden Stromlaufrichtungen die superpositionierten Zustände darstellen. Die Kopplung zwischen Qubits und nach außen erfolgt durch Spulen, die über die entstehenden Magnetfelder mit den Strömen in den Ringen interagieren. Die Kopplung zwischen Qubits wird damit durch die parametrisierte Kopplung der Spulen realisiert. Für klassische Algorithmen und parallelisierte Computersysteme beschreibt der Begriff des Speedup die Effizienzsteigerung durch Nutzung einer erhöhten Parallelisierung. Je nach Algorithmus gibt es nach Amdahls Gesetz logische Grenzen, wo weitere Parallelisierung keine Gewinn mehr erzielt. Entsprechend besteht der Wunsch den Begriff des Quantum Speedup analog zu definieren und nachzuweisen: Diesen Ansatz verfolgten T. Rønnow und Mitautoren und definierten verschiedene Klassen von Quantum Speedup, wobei der adiabatische D-Wave Quantencomputer für sie nur Anzeichen für ein potentielles Speed-up ergab. Das ist ein ernüchterndes Ergebnis, wobei die Autoren klar weiteren Forschungsbedarf sahen. Hier war das Paper von V. Denchev und Mitautoren eine große Überraschung, wo dem D-Wave 2X Rechner mit hoher Wahrscheinlichkeit eine Beschleunigung von 10^8 nachgesagt wurde. Neben den Annealing-Verfahren kam hier auch Quantum Monte Carlo zum Einsatz. Im Ergebnis erhielten sie für die Annealing-Verfahren ein asymptotisches Speed-Up, das sich für größere Problemstellungen einstellt, für Quantum Monte Carlo eine von der Problemgröße unabhängige Beschleunigung gegenüber einem klassischen Single-core Rechner. Diese Aussagen trafen aber schnell auf Widerstand und den Nachweis, dass ein im Paper betrachtetes Problem mit anderen Algorithmen teilweise auf einem klassischen Rechner vielfach schneller gelöst werden kann als auf dem Quantencomputer. Literatur und weiterführende Informationen S. Boixo, et al.: Evidence for quantum annealing with more than one hundred qubits, Nature Physics 10.3: 218-224, 2014. T. Rønnow, et al.: Defining and detecting quantum speedup, Science 345.6195: 420-424, 2014. V. Denchev, et al.: What is the Computational Value of Finite Range Tunneling? arXiv preprint arXiv:1512.02206, 2015. R. Harris, R., et al.: Compound Josephson-junction coupler for flux qubits with minimal crosstalk, Physical Review B 80.5: 052506, 2009. S. Ritterbusch: Digitale Währungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/digitale-waehrungen E. Dittrich: Schülerlabor, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schuelerlabor Bernd Fix: Post-Quantum Krypto, Afra-Berlin.de, Vortrag am 13.12.2013. F. Rieger, F. von Leitner: Fnord Jahresrückblick, 32c3, Vortrag am 29.12.2015. S. Aaronson: Google, D-Wave, and the case of the factor-10^8 speedup for WHAT? Blog-Post mit Updates 16.5.2013-16.12.2015. Quantum Annealing Solver für den Laptop
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 03/06
Während der Zellproliferation müssen Zellwachstum und Zellteilung koordiniert werden. Die Kopplung erfolgt in der Hefe durch einen Komplex aus Nop7p, Erb1p und Ytm1p, der sowohl an der Ribosomenbiogenese als auch an der Kontrolle der DNA-Replikation beteiligt ist. Die homologen Proteine Pes1, Bop1 und WDR12 werden in Säugern von Zielgenen des Transkriptionsfaktors c-Myc, einem zellulären Onkoprotein, kodiert. In dieser Arbeit wurde die Existenz eines evolutionär konservierten Komplexes aus Pes1, Bop1 und WDR12 (PeBoW-Komplex) in Säugern belegt. Dabei wurde gezeigt, dass Bop1 als zentrales Protein des Komplexes agiert und die Interaktion von Pes1 und WDR12 vermittelt. Die Integrität des Komplexes ist wesentlich für seine Funktion. Die Depletion einzelner Komponenten sowie die Überexpression des integrierenden Proteins Bop1 hemmen die Reifung der Vorläufer-rRNA der großen ribosomalen Untereinheit sowie die Proliferation der Zellen. Bop1-Überexpression führt zur Ausbildung von zwei Subkomplexen aus Bop1 und Pes1 bzw. Bop1 und WDR12. Während der Bop1/Pes1-Subkomplex als Teil der pre-Ribosomen im Nukleolus lokalisiert, wird WDR12 durch Bop1-Überexpression im Zytoplasma gehalten und fehlt im Nukleolus zur Ausbildung eines funktionellen PeBoW-Komplexes. Pes1 und WDR12 können unabhängig in den Nukleolus translozieren, während Bop1 dafür die Interaktion mit Pes1 benötigt. Untersuchungen zur Stabilität der einzelnen PeBoW-Komponenten zeigten, dass monomeres Bop1 extrem instabil ist, durch Inkorporation in den PeBoW-Komplex aber vor Abbau geschützt wird. Möglicherweise werden hierdurch interne PEST-Sequenzen in Bop1 maskiert. Die Menge an Bop1 ist somit abhängig von der Anwesenheit von Pes1 und WDR12. Die gegenseitige Abhängigkeit der Stabilität aller drei PeBoW-Komponenten konnte in weitergehenden Experimenten gezeigt werden. Schließlich wurde untersucht, ob der PeBoW-Komplex die Ribosomenbiogenese mit der DNA-Replikation über Interaktion mit dem ORC-Komplex, wie in der Hefe beschrieben, koordiniert. Mit Hilfe der BiFC-Methode konnte eine Interaktion von Pes1 mit Orc6, eines Faktors des ORC-Komplexes, gezeigt werden. Die koordinierende Funktion des PeBoW-Komplexes für Zellwachstum und Zellproliferation scheint von der Hefe bis zum Menschen stark konserviert zu sein.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Ziel der hier vorliegenden Arbeit war es, ein einzelnes in einer Ionenfalle gespeichertes Kalziumion als Meßsonde fuer das elektromagnetische Feld eines optischen Resonators zu verwenden. Bei einer Anregungswellenlaenge von 397 nm konnte das Feld mit einer Aufl¨osung von 60 nm unterhalb der Beugungsgrenze vermessen werden. Die untere Grenze der Aufloesung wird bei Verwendung eines gespeicherten Ions nur durch die Ausdehnung der Wellenfunktion des Ions im Schwingungsgrundzustand des Fallenpotentials bestimmt und kann bei Kuehlung des Ions in den Schwingungsgrundzustand weniger als 10 nm betragen. Die Aufloesungsgrenze von 60 nm war aufgrund der Doppler-Kuehlung durch die Restbewegung des Ions bestimmt. Aufloesungen unterhalb der Beugungsgrenze werden auch bei der Nahfeld- Mikroskopie erreicht, wobei die Aufl¨osung durch die Groeße der Meßsonde gegeben ist. Durch die Verwendung einzelner Molekuele als Meßsonde wurden Aufloesungen unter 100 nm erzielt. Gemessen wird die Intensitaetsverteilung des optischen Nahfeldes durch Detektion des Fluoreszenzlichtes, das vom Molek¨ul in Abhaengigkeit seiner Position emittiert wird. Um die Position des Molekuels relativ zur Probe kontrollieren zu koennen, muß das Molekuel in einer Kristallmatrix oder auf einem Substrat fixiert werden mit dem Nebeneffekt, daß das zu messende Feld veraendert wird. Diese unerwuenschte Beeinflussung der Meßgr¨oße durch die Messung wird bei der Vermessung des Feldes mit einem einzelnen Ion in einer Ionenfalle vermieden. Das zu diesem Zweck entwickelte System aus linearer Ionenfalle und optischem Resonator ermoeglicht es, die relative Position zwischen Ion und elektromagnetischem Feld auf Bruchteile der Wellenl¨ange des Feldes festzulegen und so die unverfaelschte Feldverteilung mit hoher Aufloesung dreidimensional zu vermessen. Die genaue relative Positionierung von Ion und Resonatormode impliziert dabei die praezise Kontrolle der Kopplung zwischen einem einzelnen Ion und dem elektromagnetischen Feld einer Resonatormode. Das hier vorgestellte System bietet demzufolge auch ideale Voraussetzungen, um Resonator-Quantenelektrodynamik mit einzelnen Ionen durchzufuehren. Experimente, die die Wechselwirkung einzelner Atome mit dem elektromagnetischen Feld einer Resonatormode untersuchen, verwenden bis heute Atome, die den Resonator durchqueren oder im Umkehrpunkt eines atomaren Springbrunnens fuer wenige Millisekunden im Resonatorfeld verweilen. Diese Messungen beinhalten also immer eine Mittelung ueber die tats¨achlich im Resonatorfeld befindlichen Atome und ihre unterschiedliche Kopplung an das Resonatorfeld. Die Atomstatistik zerstoert in diesen Experimenten im allgemeinen nichtklassische Effekte, die in einem idealen System aus einzelnem Atom und Resonatorfeld theoretisch er- wartet werden. Die hier beschriebene Anordnung erlaubt dagegen, wie die dreidimensionale Vermessung einer Feldmode zeigt, daß eine exakte Kontrolle ueber die Ion-Feld Kopplung bei nahezu unbegrenzter Speicherzeit des Ions im Resonatorfeld erreicht wird. Auf den erzielten Ergebnissen aufbauend koennen Experimente im Bereich der starken Ion-Feld Kopplung durchgefuehrt werden, bei denen die oben erwaehnten Nachteile bisheriger Experimente nicht mehr vorhanden sind. Erstmals eroeffnet sich die Meoglichkeit der deterministischen Erzeugung von Ein- Photonen-Pulsen und der Konstruktion eines Lasers, der mit nur einem einzigen Ion als aktivem Medium betrieben werden kann. Zur Lokalisierung eines einzelnen Kalziumions im Resonatorfeld, wurde eine lineare Falle vom Typ eines Quadrupol-Massenfilters konstruiert. Entlang ihrer Achse ist diese Falle in mehrere Speicherzonen unterteilt, in denen jeweils ein einzelnes Kalziumion oder auch eine Kalziumionenwolke gespeichert werden kann. In einer Speicherzone wird die Falle geladen, waehrend die Experimente in einer 2,5 cm entfernten Zone durchgefuehrt werden, die zwischen den Spiegeln eines Resonators liegt. Auf diese Weise wird eine Aufladung der Spiegel und eine Bedampfung der hochreflektierenden Beschichtung waehrend des Ladens verhindert. Durch die Anordnung mehrerer Gleichspannungselektroden entlang der Fallenachse koennen Ionenwolken mit hoher Effzienz von der Laderegion in den Bereich zwischen den Resonatorspiegeln verschoben werden. Das Anlegen von Spannungspulsen an die Speicherelektroden der Falle ermoeglicht es, die Ionenzahl auf die gewuenschte Anzahl zu reduzieren. Die K¨uhlung der Ionen erfolgt ¨uber Dopplerkuehlung auf dem 2S1/2 ↔ 2P1/2 ¨Ubergang bei der Wellenl¨ange λ = 397 nm. Ein einzelnes Ion laeßt sich nun im Minimum des Fallenpotentials auf besser als λ/10 lokalisieren. Der optische Resonator besteht aus sphaerischen Spiegeln, die eine fuer 397 nm hochreflektierende dielektrische Beschichtung besitzen. Mit einer Finesse von 3000 und einem Spiegelabstand von 6 mm, lassen sich mit diesem Resonator Experimente im Bereich der schwachen Kopplung durchf¨uhren. Fuer die Durchfuehrung der zuvor erw¨ahnten Experimente im Bereich der starken Kopplung muß ein Resonator verwendet werden, dessen Spiegel bei 866 nm beschichtet sind und der eine Finesse von 30000 bis 300000 aufweist. Die Resonatorl¨ange wird aktiv stabilisiert, so daß die Transmission fuer einen eingekoppelten Laser bei 397 nm maximal wird. Auf diese Weise kann ein im Resonatorfeld befindliches Ion ueber die Resonatormode angeregt werden und das Fluoreszenzlicht des Ions, das den Resonator seitlich verlaeßt, kann zur Bestim- mung der Ion-Feld Wechselwirkung gemessen werden. Die Intensitaet der detektierten Fluoreszenz ist direkt proportional zur Intensit¨at des Resonatorfeldes, d. h. aus ihr kann die Intensitaet des optischen Feldes und die Position des Ions im Resonatorfeld bestimmt werden. Die Kopplung zwischen Ion und Resonatorfeld laeßt sich auf zwei Weisen einstellen. Zum einen kann das Ion durch das Anlegen einer Gleichspannung entlang der mikrobewegungsfreien Fallenachse verschoben werden. Die Verschiebung laeßt sich reproduzierbar einstellen, so daß die Lokalisierung des Ions auf besser als λ/10 waehrend des Verschiebevorgangs erhalten bleibt. Zum anderen ist der Resonator auf einem Piezotisch positioniert, so daß bei raeumlich fest lokalisiertem Ion jeder Punkt der Intensitaetsverteilung im Resonator mit dem Ort des Ions zum Ueberlapp gebracht werden kann. Eine Positionierung des Resonators relativ zum Ion ist noetig, da bei Ionenverschiebungen senkrecht zur Fallenachse die Lokalisierung des Ions auf besser als λ/10 aufgrund der Mikrobewegung im Fallenpotential nicht mehr erreicht werden kann. Die experimentelle Realisierung einer vollstaendigen Kontrolle ¨uber die Ion-Feld Kopplung wird eindrucksvoll demonstriert durch die Verwendung eines einzelnen Ions als nanoskopische Meßsonde zur Vermessung der Intensitaetsverteilung verschiedener Resonatormoden. Sowohl die Stehwellenverteilung entlang der optischen Achse als auch die transversale Verteilung einiger TEM Moden konnte mit hoher Aufloesung vermessen werden. Neben der Kontrolle der Kopplung eines einzelnen Ions ist es auch moeglich, einen Ionenkristall entlang der Achse durch die Resonatormode zu schieben. Hierzu wurde ein Zwei-Ionen-Kristall transversal durch eine TEM01 Mode geschoben. Die gemessene Flureszenzrate als Funktion der Schwerpunktsposition des Ionenkristalls zeigt, daß beide Ionen in je einem der Maxima der TEM01 Mode gleichzeitig lokalisiert werden koennen. Diese Kombination eroeffnet Anwendungen im Bereich der Quanteninformation. Realisierbar ist die Verschraenkung von Ionen, die Uebertragung eines Quantenzustandes von einem Ion auf das andere und die Ausfuehrung eines 2-Bit-Quanten-Gatters. Darueber hinaus ist es aufgrund der in dieser Arbeit erzielten Ergebnisse vorstellbar, eine Ionenkette Ion fuer Ion durch die TEM00 Mode zu schieben und so Quantenzustaende von einem Ion auf ein anderes zu ¨ubertragen. Ebenso ist eine Uebertragung von Quantenzustaenden ueber große Entfernungen, d. h. von einem Resonator zu einem anderen, in den Bereich des Moeglichen gerueckt.