<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	
	>
<channel>
	<title>
	Kommentare zu: KI wird unseren Unterricht nachhaltig verändern	</title>
	<atom:link href="https://herrspitau.de/2023/03/11/ki-wird-unseren-unterricht-nachhaltig-veraendern/feed/" rel="self" type="application/rss+xml" />
	<link>https://herrspitau.de/2023/03/11/ki-wird-unseren-unterricht-nachhaltig-veraendern/?pk_campaign=feed&#038;pk_kwd=ki-wird-unseren-unterricht-nachhaltig-veraendern</link>
	<description>Bis auf Weiteres ohne Untertitel - aus Gründen.</description>
	<lastBuildDate>Sun, 12 Mar 2023 16:13:17 +0000</lastBuildDate>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>
		Von: Andreas Lichte		</title>
		<link>https://herrspitau.de/2023/03/11/ki-wird-unseren-unterricht-nachhaltig-veraendern/?pk_campaign=feed&#038;pk_kwd=ki-wird-unseren-unterricht-nachhaltig-veraendern/#comment-328679</link>

		<dc:creator><![CDATA[Andreas Lichte]]></dc:creator>
		<pubDate>Sun, 12 Mar 2023 16:13:17 +0000</pubDate>
		<guid isPermaLink="false">https://herrspitau.de/?p=377680#comment-328679</guid>

					<description><![CDATA[„Wenn Sie einen Knopf haben, der Schaden in der Welt anrichten kann, würden Sie ihn nicht jedem verfügbar machen.“

Nick Bostrom über OpenAI

–

&quot;Superintelligenz – Gefahrenpotential:

Im Zusammenhang mit Superintelligenz sprach bereits I. J. Good von einer möglichen Intelligenzexplosion, zu der es im Kreislauf einer rekursiven Selbstverbesserung kommen könnte.[3] 

Heute wird dieses Szenario als ein Prozess in mehreren Stufen dargestellt.[23] Zunächst hat das gegenwärtige System Fähigkeiten weit unter menschlichem Basisniveau, definiert als allgemeine intellektuelle Fähigkeit. Zu einem zukünftigen Zeitpunkt erreicht es dieses Niveau. Nick Bostrom[24] bezeichnet dieses Niveau als Beginn des Takeoffs. 

Bei weiterem kontinuierlichem Fortschritt erwirbt die Superintelligenz die kombinierten intellektuellen Fähigkeiten der gesamten Menschheit. 

Das System wird zu einer „starken Superintelligenz“ und schraubt sich schließlich selbst auf eine Ebene oberhalb der vereinten intellektuellen Möglichkeiten der gegenwärtigen Menschheit. 

Der Takeoff ist hier zu Ende; die Systemintelligenz nimmt nur noch langsam zu. Während des Takeoffs könnte das System eine kritische Schwelle überschreiten. Ab dieser Schwelle sind die Verbesserungen des Systems in der Mehrheit systemimmanent. Eingriffe von außen sind nur noch wenig relevant. 

Die Dauer des Takeoffs ist von vielen Faktoren abhängig. Akzellerationseffekte des Systems werden unter dem Begriff Optimierungskraft, hemmende Effekte unter dem Begriff „Widerstand“ zusammengefasst. Die Rate der Veränderung, also die Beschleunigungsrate für eine mögliche Intelligenzexplosion ist dann nach Bostrom Optimierungskraft ./. Widerstand. Faktoren die die Optimierungskraft oder den Widerstand des Systems beeinflussen, sind etwa die Frage, ob nur eine Superintelligenz den Prozess bestreitet oder ob mehrere oder gar viele Superintelligenzien im Wettbewerb gegeneinander stehen. Ferner ist entscheidend, welcher Prozentsatz des Bruttoweltprodukts für die Entwicklung einer oder vieler Superintelligenzen investiert wird (Konstruktionsaufwand). Schnelle drastische Hardwareverbesserungen wären ein Indiz für einen schnellen Takeoff und damit für eine Intelligenzexplosion.[25] Sie könnte in wenigen Tagen oder Stunden ablaufen. 

Die Dimension einer Intelligenzexplosion wird beispielhaft damit beschrieben, dass das weltweite BIP sich in einem oder zwei Jahren verdoppelt oder dass das System eine Dissertation in wenigen Minuten anfertigen könnte. Der Mensch hätte in diesem Fall kaum Zeit zu reagieren. Sein Schicksal hinge im Wesentlichen von bereits zuvor getroffenen Vorkehrungen ab.[26] Er würde sich im Extremfall der Nicht-mehr-Handlungsfähigkeit einer Technologischen Singularität gegenübersehen. 

Ein gemäßigter Takeoff wird nach der Analyse von Bostrom zu geopolitischen, sozialen und ökonomischen Verwerfungen führen, wenn Interessengruppen versuchen, sich angesichts des bevorstehenden drastischen Wandels machtpolitisch neu zu positionieren. Ein langsamer Takeoff ist nach Bostrom unwahrscheinlich.[27]“

Quelle für &quot;Superintelligenz – Gefahrenpotential&quot;: https://de.wikipedia.org/wiki/Superintelligenz#Gefahrenpotential]]></description>
			<content:encoded><![CDATA[<p>„Wenn Sie einen Knopf haben, der Schaden in der Welt anrichten kann, würden Sie ihn nicht jedem verfügbar machen.“</p>
<p>Nick Bostrom über OpenAI</p>
<p>–</p>
<p>&#8222;Superintelligenz – Gefahrenpotential:</p>
<p>Im Zusammenhang mit Superintelligenz sprach bereits I. J. Good von einer möglichen Intelligenzexplosion, zu der es im Kreislauf einer rekursiven Selbstverbesserung kommen könnte.[3] </p>
<p>Heute wird dieses Szenario als ein Prozess in mehreren Stufen dargestellt.[23] Zunächst hat das gegenwärtige System Fähigkeiten weit unter menschlichem Basisniveau, definiert als allgemeine intellektuelle Fähigkeit. Zu einem zukünftigen Zeitpunkt erreicht es dieses Niveau. Nick Bostrom[24] bezeichnet dieses Niveau als Beginn des Takeoffs. </p>
<p>Bei weiterem kontinuierlichem Fortschritt erwirbt die Superintelligenz die kombinierten intellektuellen Fähigkeiten der gesamten Menschheit. </p>
<p>Das System wird zu einer „starken Superintelligenz“ und schraubt sich schließlich selbst auf eine Ebene oberhalb der vereinten intellektuellen Möglichkeiten der gegenwärtigen Menschheit. </p>
<p>Der Takeoff ist hier zu Ende; die Systemintelligenz nimmt nur noch langsam zu. Während des Takeoffs könnte das System eine kritische Schwelle überschreiten. Ab dieser Schwelle sind die Verbesserungen des Systems in der Mehrheit systemimmanent. Eingriffe von außen sind nur noch wenig relevant. </p>
<p>Die Dauer des Takeoffs ist von vielen Faktoren abhängig. Akzellerationseffekte des Systems werden unter dem Begriff Optimierungskraft, hemmende Effekte unter dem Begriff „Widerstand“ zusammengefasst. Die Rate der Veränderung, also die Beschleunigungsrate für eine mögliche Intelligenzexplosion ist dann nach Bostrom Optimierungskraft ./. Widerstand. Faktoren die die Optimierungskraft oder den Widerstand des Systems beeinflussen, sind etwa die Frage, ob nur eine Superintelligenz den Prozess bestreitet oder ob mehrere oder gar viele Superintelligenzien im Wettbewerb gegeneinander stehen. Ferner ist entscheidend, welcher Prozentsatz des Bruttoweltprodukts für die Entwicklung einer oder vieler Superintelligenzen investiert wird (Konstruktionsaufwand). Schnelle drastische Hardwareverbesserungen wären ein Indiz für einen schnellen Takeoff und damit für eine Intelligenzexplosion.[25] Sie könnte in wenigen Tagen oder Stunden ablaufen. </p>
<p>Die Dimension einer Intelligenzexplosion wird beispielhaft damit beschrieben, dass das weltweite BIP sich in einem oder zwei Jahren verdoppelt oder dass das System eine Dissertation in wenigen Minuten anfertigen könnte. Der Mensch hätte in diesem Fall kaum Zeit zu reagieren. Sein Schicksal hinge im Wesentlichen von bereits zuvor getroffenen Vorkehrungen ab.[26] Er würde sich im Extremfall der Nicht-mehr-Handlungsfähigkeit einer Technologischen Singularität gegenübersehen. </p>
<p>Ein gemäßigter Takeoff wird nach der Analyse von Bostrom zu geopolitischen, sozialen und ökonomischen Verwerfungen führen, wenn Interessengruppen versuchen, sich angesichts des bevorstehenden drastischen Wandels machtpolitisch neu zu positionieren. Ein langsamer Takeoff ist nach Bostrom unwahrscheinlich.[27]“</p>
<p>Quelle für &#8222;Superintelligenz – Gefahrenpotential&#8220;: <a href="https://de.wikipedia.org/wiki/Superintelligenz#Gefahrenpotential" rel="nofollow ugc"></a><a href='https://de.wikipedia.org/wiki/Superintelligenz#Gefahrenpotential'>https://de.wikipedia.org/wiki/Superintelligenz#Gefahrenpotential</a></p>
]]></content:encoded>
		
			</item>
	</channel>
</rss>
