Freitag, 4. Mai 2007

flaches monster

bin gerade endlich dazu gekommen, bredekamps leviathan-artikel zu lesen. witzig der gestus des materialisten: "physis des vorgeblich immateriellen" (damit hat er sicher recht) – und dann die hübsche ausgesprochen materiale metaphorik: "venen", "riesenschloß", "ruinenlandschaft". seine interpretation des nur vermeintlich immateriellen netzes würde ich teilen – allerdings bleibt die frage, was dann. der leviathan ja also nicht (umschmeicheln, statt überragen).

immer wieder gern in der diskussion ums virtuelle/immaterielle: krieg und sex – hier in treffender verbindung mit der "okulartyrannis": "augenlust" als signum und katastrophe des cyberspace.

8 Kommentare:

telemat hat gesagt…

noch eins: teilst du eigentlich bredekamps einschätzung, dass das ganze früher oder später zusammenbrechen muss? spam ja, porno auch - ein großteil des traffics, freilich - aber trotzdem wird doch auch unbestreitbar die serverkapazität größer, die bandbreiten wachsen (außer, natürlich, in unserem eck hier). und mehr regulierung will vielleicht der eine oder andere gern, aber inwieweit sich das realisieren lässt..

fermate hat gesagt…

Danke für deinen Post. Hat mir endlich einen handfesten Zugriff auf die Magna Charta gegeben. Wenn man sie durch die Brille Geistes- vs. Medienwissenschaft (LW vs. hcvh?) liest, ist da allerhand mehr rauszuholen. Tolle Sache, was wir hier machen!

Ich tu jetzt mal so, als hätte ich die Kompetenz, Fragen die Text und du aufwerfen, zu beantworten:

(1) Vorweg: Setzt man beim prognostizierten Zusammenbruch an, der Text ist von 1997, dann ist vieles schon gesagt. Das Netz hat Napster und Co. überlebt. Vielleicht gibt es ja auch gerade wegen den Tauschbörsen so viele DSL-Anschlüsse. Das Netz wird auch IP-TV, IP-Telefonie (und diese Unmengen von sinnlosen Blogs) überleben. Warum? Technologieführerschaft! - und die haben Porno und Spam inne (Wettstreit zwischen HD-DVD und Blue-Ray). Auf der Hardwareseite sehe ich keine Zusammenbrüche - Not macht erfinderisch: DivX, MP3; Den Rest übernimmt die Regulierung: Glasfaserkabel haben theoretisch eine unbegrenzte Kapazität, da es theoretisch unbegrenzt viele Spektralfarben gibt.
Limitierender Faktor in der Hardwarewelt ist für mich allein der Energieverbrauch. Andere Kosten/Nutzen-Kalküle sehe ich nicht.

(2) Was sich viel eher als Flaschenhals herausstellt, ist die Aufmerksamkeit. Und damit sind wir wieder in der Welt von LW. Eigentlich kann man hier doch von einer Deflation sprechen? Ich muss immer mehr investieren, um meine geringe Aufmerksamkeitsspanne möglichst effektiv zu nutzen. Was freilich kein Grund für einen Zusammenbruch ist.

telemat hat gesagt…

1) absolut, meine rede. die sache mit der energie ist ein interessanter hinweis - eine (zumindest nach landläufiger interpretation) immaterielle hürde also, und keine grenze des materials (welches ja auch längst noch nicht am gipfel seiner entwicklung angelangt ist).

2) genau. und wenn also die aufmerksamkeitsspanne des menschen nicht mehr ausreicht, um die potentiellen informationsmengen zu verarbeiten (oder überhaupt wahrzunehmen), so spricht ja gerade das auch für eine gewisse verselbständigung des netzes (zumindest seines immateriellen, also informatorischen teils): indem nämlich unmengen von information, einmal losgelassen, herumgeistern (im wortsinne), die niemals gesehen werden können - orphanisierung.

fermate hat gesagt…

(2) Vorsicht. Dieser Verselbstständigung sind doch sehr enge Grenzen gesetzt, vor allem in Hinsicht auf den informatorischen Anteil. Man schätzt, dass das "Deep Web" - also der nicht-öffentliche Teil des Internets, der in Suchmaschinen auch nicht katalogisiert ist - etwa 500 Mal so groß ist. Google hat drei Milliarden öffentlich zugängliche Seiten indexiert. Das nicht-öffentliche Web umfasst auch die Seiten, die nur gegen Gebühr oder Registrierung zugänglich sind.*

Damit wären wir wieder bei der Magna Charta und ihren Lagerhäusern, die nur durch den passenden (Software)Schlüssel betreten werden können. Es lebe der Leviathan und mit ihm der Netzkapitalismus.

* Krieg, Peter, Die paranoide Maschine, Hannover 2005, S. 94.

telemat hat gesagt…

ich verstehe das gegenargument nicht ganz - gerade das 'deep web' (mal abgesehen von den registrierpflichtigen seiten) ist doch eben genau das: ein ziemlich flüssiger brei, auf dem ein kleiner teil tatsächlich zugänglicher inhalte (und also im eigentlichen sinne informationen) schwimmt, nicht?

ganz interessant in diesem zusammenhang übrigens auch dieser artikel in der zeit - vor allem in bezug auf die "wölfische regellosigkeit": wiedergeburt des militärischen aus dem web2.0.

fermate hat gesagt…

Gut. Ich versuche mich präziser auszudrücken und ja, auch ein wenig zu relativieren. Das 'Deep Web' bezeichnet m.E. all die Leckerbissen, die das Internet als Werkzeug wertvoll machen. Einen Zugriff auf die OPACs der Bibliotheken oder den KVK gibt es bei einer globalen Suchanfrage (noch) nicht. Datenbanken kann man generell nicht (durch)suchen. D.h. ich muss wissen, dass es den KVK gibt und eine Nutzerberechtigung haben, um ihn nutzen zu können.
An die Archive der periodischen (Print)Medien kommst du nicht ran. Die ZEIT ist die einzige Ausnahme die ich kenne.
Es geistern also nur die Inhalte im world wide web umher, die dort auch herumgeistern sollen. Warum sie das tun? Geld verdienen auf der einen, intrinsische Motivation auf der Seite der opensource-community.
Das 'deep web' ist also der wirklich nahrhafte Brei, kosten dürfen ihn aber nur die Privilegierten. Aber sicher, die Geister die man bewusst ruft, wird man nicht mehr los, die verselbstständigen sich, keine Frage.

telemat hat gesagt…

ok. bis auf ein terminologisches missverständnis (deep web) meinerseits meinen wir, glaube ich, ziemlich das gleiche. beschränkter zugriff und an vorwissen gebundener zugang zum nahrhaften brei - klar - insofern trifft auch die magna charta den nagel der zugangsschwellen auf den kopf.

was aber die verselbständigung angeht, dachte ich eher an die unmengen von inhalten, die frei verfügbar, aber eben nicht zugänglich sind. und genau da würde ich beispielsweise den spamtraffic einordnen (unabhängig von der inhaltlichen seite - als reine datenmenge verstanden). oder aber die suchtreffer, die bei einschlägigen google-anfragen auf platz [sechsstellige nummer] erscheinen. oder abertausende von aufgegebenen, orphanisierten blogs. etc.

informationen also, die vorhanden sind, frei (und vielleicht längst von ihren erstellern abgekoppelt) herumgeistern. das ist doch der teil des web, der tatsächlich unwiederbringlich unter der aufmerksamkeitsschwelle der nutzer bleibt, der existiert und gleichzeitig auch nicht existiert..

telemat hat gesagt…

noch eins, um zum ausgangspunkt und zum text zurück zu kommen. ich hab mir bredekamps ausführungen gerade noch einmal angesehen, und am wichtigsten erscheint mir nun dies:

die prognose des erstickungstods ist überholt, das hatten wir ja bereits (siehe anstieg der datenraten und -kapazitäten).

zugangsbeschränkungen - im sinne der magna charta: software als schlüssel - sind also keine technische notwendigkeit mehr (wie b. prophezeit), wohl aber eine der nutzung, und eben darin findet sich ja auch exakt deine interpretation des deep web wieder.

der wölfische naturzustand ist also weniger ein technisches, als vielmehr ein semantisches problem - stimmst du dem zu?