Startseite
  Archiv
  Gästebuch
  Kontakt
 


http://myblog.de/suchmaschine

Gratis bloggen bei
myblog.de





Social Bookmarking - Was ist das?

Was ist eigentlich "Social Bookmarking?"



In der modernen Welt des Internets stolpert man immer wieder über den Begriff des „Social Bookmarking“, doch was genau ist eigentlich ein Social Bookmark, welche Vorteile bietet es und lohnt sich das „Social Bookmarking“ auch für mich?



1. Definition

Bei einem so genannten Social Bookmark handelt es sich vereinfacht gesagt um ein Internet-Lesezeichen. Eine direkte Übersetzung ins Deutsche findet sich eher selten, vereinfacht gesagt ist ein Social Bookmark ein Soziales Lesezeichen.



2. Lesezeichen

Aber was genau ist eigentlich ein Internet-Lesezeichen? Unter einem Lesezeichen versteht man in der Welt des Internets einen Link, welcher den schnelleren Zugriff auf bestimmte Dateien bzw. Internetseiten sowohl auf dem PC, als auch im Internet, ermöglicht. Es ist möglich, dass Ihnen der Begriff des Lesezeichens auch schon einmal in Zusammenhang mit einem so genannten Favoriten begegnet ist, was jedoch das selbe bedeutet - die Begriffe sind also vollkommen synonym. Nutzen Sie ein englischsprachiges Programm, so werden Sie einen solchen Link auch unter dem Namen Bookmark wieder finden.



Stellen Sie sich vor, Sie haben im Internet eine bestimmte Seite gefunden, und möchten diese nun auch in der nächsten Zeit häufiger besuch, oder sie weiterempfehlen. Selbstverständlich können Sie sich die gegebene Adresse spartanisch auf einem Zettel notieren, einfacher hingegen ist die Möglichkeit eines Lesezeichens (Bookmarks), welches Sie sich kinderleicht einrichten können.
Hierbei gilt es zwischen den verschiedenen Internetanbietern zu differenzieren. Das Beispiel Mozilla speichert Ihre persönlichen Lesezeichen als eine erweiterte HTML-Datei, während im Falle des Internet Explorer eine extra angelegte Datei im System gespeichert wird. Beide Möglichkeiten stellen jedoch weder eine Gefahr, noch eine Belastung für Ihr System dar.



3. Social Bookmark

Wo aber genau liegt nun der Unterschied zwischen einem normalen Lesezeichen (Bookmark) und einem Sozialen Lesezeichen (Social Bookmark)?
Vereinfacht ist zu sagen, dass sich Social Bookmarks vor allem durch eine bestimmte Eigenschaft von den normalen Lesezeichen unterscheiden: Sie können öffentlich verwaltet werden. Das öffentliche Verwalten von Social Bookmarks ermöglicht also jedem Nutzer des Internets oder auch Intranets den Zugriff auf diverse Lesezeichen.



4. Anbieter

Es gibt viele verschiedene Anbieter so genannter Social Bookmarks, wobei fast jeder Anbieter dem Nutzer verschiedene Zusatzfunktionen bietet. Mittlerweile sind auch deutsche Anbieter im Geschäft der Social Bookmarks vertreten, während das Geschäft in den Jahren davor eher vom amerikanischen Raum vertreten wurde. Um zwei deutsche Anbieter zu nennen: www.netselektor.de und www.taggle.de bieten diesen Service an, während es natürlich auch noch weitere Konkurrenten auf dem Markt gibt.



5. Funktion

Der Nutzer kann bei all diesen Seiten seine eigenen Lesezeichen sowohl hinzufügen als auch löschen. Auch das Kommentieren von Lesezeichen ist eine Option, wobei das besagte Lesezeichen dafür nicht unbedingt von Ihnen hinzugefügt sein worden muss. Sie haben also auch Zugriff auf die Lesezeichen anderer Nutzer. Um es dem Benutzer einfacher zu machen bieten viele der Social Bookmarks Anbieter dem User eine so genannte Toplist. Wie der Name schon sagt, sind in dieser Liste all die Lesezeichen (Bookmarks) aufgelistet, welche sich an der größten Beliebtheit erfreuen. Auch das chronologische Anordnen der Lesezeichen ist möglich, so dass sich der Benutzer jeden Tag über die neusten Seiten informieren kann.
Viele Anbieter haben es bereits realisiert, nach einem bestimmten Suchbegriff auch verwandte Themen mit aufzulisten. Suchen Sie zum Beispiel ein Lesezeichen zum Thema Kochen wird Ihnen bei einigen Anbietern sogar ein weiterer Lesezeichen-Vorschlag, zum Beispiel zum Thema „Serviervorschläge“ geliefert (Beispiel). Neben dem Kommentieren der Lesezeichen ist es dem Benutzer ebenfalls möglich, solche Lesezeichen zu bewerten. Sind Sie mit einer Seite vollkommen zufrieden? So helfen Sie Ihren Mitbenutzern und bewerten Sie die Seite als besonders gut. Hat Ihnen eine Seite überhaupt nicht gefallen, so können Sie nachfolgenden Benutzern mit einer schlechten Bewertung von diesem Link abraten.



6. Sonderfunktionen

Selbstverständlich versuchen sich die Anbieter solcher Social Bookmarks im andauernden Kampf mit der Konkurrenz immer wieder durch bestimmte Extra- oder Sonderfunktionen zu überbieten. Doch welche Sonderfunktionen werden dem Benutzer denn bisher angeboten? Hierzu muss man sagen, dass die folgenden Sonderfunktionen nicht unbedingt bei allen Anbietern vorhanden sind. Eine Sonderfunktion zum Beispiel ist die so genannte Netzwerkfunktion, welche es dem Benutzer direkt möglich macht, seine gespeicherten Lesezeichen mit einem anderen Nutzer auszutauschen, der so genannte Import bzw. Export von Social Bookmarks.
Auch die Mailfunktion zählt zu den Extrafunktionen. Sie ermöglicht es dem User, seine favorisierten Lesezeichen in einer Mail an Freunde, Verwandte oder Kollegen direkt weiterzusenden.



7. Bewertung

Sicherlich ist es fast jedem Internetnutzer bekannt, dass er die von ihm besuchten Seiten jederzeit als eine Art Favorit bzw. Lesezeichen oder Bookmark auf dem Computer speichern kann, um diese ohne jegliche Probleme zu einem späteren Zeitpunkt wieder aufzurufen.
Gängige Anbieter wie der Internet Explorer bieten diese Funktion seit Jahren an und auch nachfolgende Programme wie Opera oder auch Firefox lassen es an diesem Extra nicht fehlen.
Ein Social Bookmark hingegen stellt nochmals ein ganz besonderes Extra dar, da es nun endlich möglich ist, diese gespeicherten Seiten auch öffentlich zu verwalten und zu publizieren. Speichern Sie Ihre Favoriten aus allen erdenklichen Bereichen indem Sie sich in Ihrer Favoriten- bzw. Lesezeichenliste einige Unterordner zu differenzierten Themen anlegen, zum Beispiel "Spiele", "Essen & Trinken", "Auto & Sport" und viele mehr. Lassen Sie auch Ihre Freunde an diesen Links teilhaben und veröffentlichen Sie sie dank der einfachen Methode des Social Bookmarking.
Wurden Sie nicht auch schon einmal von einem Bekannten angesprochen, ob Sie in der Lage seien, ihm im Internet ein paar nette Rezepte, oder aber auch bestimmte Informationen über ein Auto herauszusuchen?
Schauen Sie einfach in Ihre Leszeichen und ermöglichen Sie Ihren Freunden den schnellen Zugriff auf all Ihre Lieblingsseiten.



Bekannte Social Bookmarking Dienste:



http://www.mister-wong.de

http://www.yigg.de

http://taggle.de

http://del.icio.us/

http://social-bookmarking.seekxl.de

http://socialbookmarking.org/
19.2.07 14:19


Der Zusammenhang zwischen Meta-Tags und Suchmaschinen

Meta-Tags sind (versteckte) HTML-Elemente auf einer Webseite, welche Metadaten ueber das betreffende Dokument enthalten.

Es existieren verschiedene Metadaten-Schemata, teils von Institutionen oder Gremien erarbeitet (zum Beispiel Dublin Core), teils aber auch wild gewachsene Arten wie Eintraege der Erzeuger-Software (zum Beispiel Hersteller und Version). Die wenigsten dieser Metainformationen werden von User Agents (zum Beispiel Browsern oder Suchrobotern) interpretiert, sodass sie dem Leser einer Webseite fuer gewoehnlich verborgen bleiben. Die Beachtung durch den User Agent ist, wie bei allen HTML-Elementen, von den Faehigkeiten und der Konfiguration desselben anhaengig.

Meta-Tags sollen vor allem die Durchsuchbarkeit des World Wide Webs bzw. einer einzelnen Webpraesenz verbessern. Ausserdem lassen sich mithilfe von Meta-Tags spezielle Anweisungen zur Steuerung der Suchroboter von Suchmaschinen Weblog,Suchmaschinen notieren. Einst galten Meta-Tags als Geheimwaffe, um bei einer Suchmaschine oder einem Webkatalog moeglichst weit oben gelistet zu werden. Meta-Tags wurden daher lange missbraucht, um irrefuehrende Schlagwoerter anzugeben. Mittlerweile legen die Suchmaschinen wieder mehr Wert auf den eigentlichen Textinhalt einer Webseite, den auch der Leser im Browser wahrnimmt, und ignorieren Meta-Angaben weitestgehend bzw. lassen diese nicht mehr in das Ranking der Seite einfliessen.

Die Meta-Tags stehen im Kopf-Bereich eines HTML-Dokuments, also im head-Element. Im Web finden sich unzaehlige „Meta-Tag-Generatoren“, die jedoch mit zumeist veralteten oder inflexiblen Zusammenstellungen von Meta-Angaben arbeiten und damit nur fuer wenige Anwendungsfaelle geeignet sind.opkik

Meta-Tags koennen Informationen enthalten, die normalerweise in Kopfzeilen (Headern) der HTTP-Kommunikation zwischen Server und Client (z. B. einem Webbrowser) uebertragen werden. Urspruenglich war es so gedacht, dass diese Angaben vom Webserver ausgelesen und umgesetzt werden. Dies ist aber in den meisten Faellen nicht der Fall und somit liegt es am Client, diese Angaben wie HTTP-Header zu behandeln. Daneben haben sich – beguenstigt durch den „Browserkrieg“ in den 90er Jahren – auch einige solche Meta-Tags durchgesetzt, die nie als HTTP-Kopfzeile vorgesehen waren.

Nicht nur Suchmaschinen nutzen Metadaten, auch ein Webkatalog, Verzeichnis oder eine Meta Suchmaschine wie Metager arbeitet mit den Metainformationen und verfuegt ueber solche. Ein Suchmaschinen Robot kann somit schnell den eigentlichen Inhalt der Seite vordiagnostizieren und trifft die thematische Einstufung der Seite besser. Bei Suchmaschinen Marketing wird oft mit Metadaten gearbeitet, bevor es an die weiteren Optimierungs Schritte geht. Somit kann auch ein einfacher smilie oder eine Subdomain (alternative Webadresse zur normalen Domain, auch unter Subdomains umgangssprachlich bekannt, mit Metadaten versehen werden.

Als Metadaten oder Metainformationen bezeichnet man allgemein Daten, die Informationen ueber andere Daten enthalten. Bei den beschriebenen Daten handelt es sich oft um groessere Datensammlungen (Dokumente) wie Fachbuch, Datenbanken oder Dateien. So werden auch Angaben von Eigenschaften eines Objektes (beispielsweise Personennamen) als Metadaten bezeichnet. Waehrend der Begriff "Metadaten" relativ neu ist, ist sein Prinzip unter anderem jahrhundertelange bibliothekarische Praxis

Unterscheidung Daten - Metadaten

Eine allgemeingueltige Unterscheidung zwischen Metadaten und gewoehnlichen Daten existiert allerdings nicht, da die Bezeichnung eine Frage des Standpunkts ist: Fuer den Leser eines Buches sind der Inhalt die eigentlichen Daten, waehrend der Name des Autors oder Nummer der Auflage Metadaten sind. Fuer den Herausgeber eines Buecherkatalogs sind diese beiden Eigenschaften aber unmittelbar interessant und duerften deshalb als eigentliche Daten betrachtet werden.

Versucht man zwischen Daten und Metadaten zu unterscheiden, so ist es hilfreich den "Zweck" als Begriff einzufuehren. Der Zweck bestimmt das Ergebnis; um in der Lage zu sein, einen bestimmten Zweck zu erfuellen, - ein bestimmtes Ergebnis zu erreichen, - werden Metadaten benoetigt. Das Ergebnis kann aus Daten bestehen, insbesondere koennen Metadaten in ihrer Rolle als Daten Teil des Ergebnisses sein.

Beispiel:

Zweck: Suche innerhalb einer Bibliothek nach allen Standorten (Karteinummern) verfuegbarer Buecher eines bestimmten Autors

Metadaten: "Name des Autors" und "verfuegbar"

Ergebnis: "Karteinummern" (ueber die Karteinummer sei der Standort erschliessbar)
13.11.06 16:02


Suchmaschinen Blogs als Arbeitstagebuch

Ein Suchmaschinen Blog, oft einfach nur SEO Blog genannt, ist eine Webseite, die periodisch neue Eintraege mit dem Schwerpunkt Suchmaschinen enthaelt. Neue Eintraege stehen an oberster Stelle, aeltere folgen in umgekehrt chronologischer Reihenfolge. Die Taetigkeit des Schreibens in einem Suchmaschinen Blog wird als Bloggen bezeichnet.

Suchmaschinen Blog und Weblogs sind als Kommunikationsinstrumente von Suchmaschinen Optimierern relativ neu. Bisher werden sie vor allem von Anfaengern im Bereich der Suchmaschinen Optimierung genutzt bzw. von Suchmaschinen Optimierern als Arbeitstagebuch zur Erfassung von Erkenntnissen beim Optimieren. Mittlerweile finden sie aber auch in Deutschland weitere Verbreitung mit steigenden Interesse.

Suchmaschinen Blogs treten in unterschiedlichen Formen auf und koennen unterschiedliche Funktion haben. Charakteristisch fuer SEO Blogs ist, im Gegensatz zu anderen, im Marketing genutzten Weblogs, dass sie sich hauptsaechlich mit dem Thema Suchmaschinen Marketing und Suchmaschinen News, sowie deren Veraenderungen beschaeftigen.

Ein Suchmaschinen Blog kann sowohl in der internen als auch in der externen Kommunikation eingesetzt werden.

Liste von Suchmaschinen Blogs:
Suchmaschinen Blog seekXL
SEO Blog
at web Blog
KSO Blog
20.10.06 15:30


Ein Forum für die Suchmaschine ???

Ein Suchmaschinen Forum ist ein ein virtueller Platz zum Austausch von Gedanken und Erfahrungen mit dem Schwerpunkt Suchmaschinen, Meta Suchmaschinen und Suchmaschinen Marketing. Die Kommunikation im Suchmaschinen Forum findet dabei asynchron, das heisst nicht in Echtzeit, statt.

Ueblicherweise besitzt ein Suchmaschinen Forum ein bestimmtes Thema bzw. ist nach Themen und Unterthemen in einzelne Unterforen unterteilt. Es koennen Diskussionsbeitraege (Postings) hinterlassen werden, welche die Interessierten lesen und beantworten koennen. Mehrere Beitraege zum selben Thema werden wie im Usenet zusammenfassend als Faden (Thread) oder Thema (Topic) bezeichnet.

In den meisten Suchmaschinen Foren werden auch aktuelle Themen aus Politik oder dem Weltgeschehen diskutiert, man nennt das bei themenunrelevanz Offtopic. Im Internet besonders beliebt sind Suchmaschinen-Foren, in denen Benutzer Ratschlaege zu einem bestimmten Suchmaschine erhalten koennen. So wird vielen Benutzern eine Hilfestellung angeboten, die besonders fuer spezielle Probleme oder bei nur wenigen anderen Informationsquellen die einzige Hilfe ist. Allerdings kann man bei allgemeinen Fragen, bzw. bereits oefters beantworteten Fragen schnell eine Ruege und einen Hinweis auf die Suchfunktion erhalten. Unerwuenscht ist zumeist auch das Crossposting, welches das gleichzeitige Einstellen von Beitraegen in einer Vielzahl von Unter-Foren bezeichnet.

Die Menschen, die in solchen Suchmaschinen Foren zu helfen versuchen, machen das in der Regel freiwillig und unentgeldlich. Es gibt auch kommerzielle Suchmaschinen Foren von Marketing Unternehmen zu ihren jeweiligen Spezialgebieten (Typo3 Suchmaschinen Optimierung, Joomla Suchmaschinen Optimierung etc.).

Durch die relativ leicht zu handhabende Forensoftware wird es Suchmaschinen Optimierern heutzutage leicht gemacht, eigene Suchmaschinen Foren einzurichten zu betreiben. Wobei es besonders in juengster Zeit zu Rechtsstreitigkeiten kam, welche die Kontrollpflicht der Forenbetreiber bezueglich der Postings und Avatare der User und deren Legalitaet betreffen.

Mit der Entwicklung des Internets sind Suchmaschinen Forum zu wichtigen Kommunikationsmitteln geworden, die dem wissenschaftlichen Austausch, aber vor allem auch der Unterhaltung dienen. Es hat sich im Laufe der Zeit eine Diskussionskultur heraus gebildet, die spontan entwickelte Normen und Regelwerke beinhaltet, welche sich bestaendig veraendern.

Liste von Suchmaschinen Foren:
Suchmaschinen Forum seekXL
Suchmaschinen Forum Abakus
Suchmaschinen Forum Suchmaschinentricks
Suchmaschinen Forum Webmasterpark
18.10.06 16:43


the history of search engines

A search engine or search service is a program designed to help find information stored on a computer system such as the World Wide Web, inside a corporate or proprietary network or a personal computer. The search engine allows one to ask for content meeting specific criteria (typically those containing a given word or phrase) and retrieves a list of references that match those criteria. Search engines use regularly updated indexes to operate quickly and efficiently. Without further qualification, search engine usually refers to a Web search engine, which searches for information on the public Web. Other kinds of search engine are enterprise search engines, which search on intranets, personal search engines, which search individual personal computers, and mobile search engines. However, while different selection and relevance criteria may apply in different environments, the user will probably perceive little difference between operations in these.

Some search engines also mine data available in newsgroups, large databases, or open directories like DMOZ.org. Unlike Web directories, which are maintained by human editors, search engines operate algorithmically. Most Web sites which call themselves search engines are actually front ends to search engines owned by other companies.

The very first tool used for searching on the Internet was Archie. (The name stands for "archive" without the "v", not the character from the 'Archie' comic book series). It was created in 1990 by Alan Emtage, a student at McGill University in Montreal. The program downloaded the directory listings of all the files located on public anonymous FTP (File Transfer Protocol) sites, creating a searchable database of filenames.

While Archie indexed computer files, Gopher indexed plain text documents. Webkatalog Gopher was created in 1991 by Mark McCahill at the University of Minnesota. (The program was named after the school's mascot). Because these were text files, most of the Gopher sites became Web sites after the creation of the World Wide Web.

Two other programs,Veronica and Jughead, searched the files stored in Gopher index systems. Veronica (Very Easy Rodent-Oriented Net-wide Index to Computerized Archives) provided a keyword search of most Gopher menu titles in the entire Gopher listings. Jughead (Jonzy's Universal Gopher Hierarchy Excavation And Display) was a tool for obtaining menu information from various Gopher servers.

The first Web search engine was Wandex (without the topics), a now-defunct index collected by the World Wide Web Wanderer, a web crawler developed by Matthew Gray at MIT in 1993. Another very early search engine, Aliweb, also appeared in 1993, and still runs today. The first "full text" crawler-based search engine was WebCrawler, which came out in 1994. Unlike its predecessors, it let users search for any word in any web page, which became the standard for all major search engines since. It was also the first one to be widely known by the public. Also in 1994 Lycos (which started at Carnegie Mellon University) came out, and became a major commercial endeavor.

Soon after, many search engines appeared and vied for popularity. These included Excite, Infoseek, Inktomi, Northern Light, and AltaVista. In some ways, they competed with popular directories such as Yahoo!. Later, the directories integrated or added on search engine technology for greater functionality.

Suchmaschine / Search Engines were also known as some of the brightest stars in the Internet investing frenzy that occurred in the late 1990s. Several companies entered the market spectacularly, recording record gains during their initial public offerings. Some have taken down their public search engine, and are marketing enterprise-only editions, such as Northern Light.

Before the advent of the Web, there were search engines for other protocols or uses, such as the Archie search engine for anonymous FTP sites and the Veronica search engine for the Gopher protocol. More recently search engines are also coming online which utilise XML or RSS. This allows the search engine to efficiently index data about websites without requiring a complicated crawler. The websites simply provide an xml feed which the search engine indexes. XML feeds are increasingly provided automatically by weblogs or blogs. Examples of this type of search engine are feedster, with niche examples such as LjFind Search providing search services for LiveJournal blogs.

Around 2001, the Google search engine rose to prominence. Its success was based in part on the concept of link popularity and PageRank. The number of other web sites and web pages that link to a given page is taken into consideration with PageRank, on the premise that good or desirable pages are linked to more than others. The PageRank of linking pages and the number of links on these pages contribute to the PageRank of the linked page. This makes it possible for Google to order its results by how many web sites link to each found page. Google's minimalist user interface was very popular with users, and has since spawned a number of imitators.

Google and most other web engines utilize not only PageRank but more than 150 criteria to determine relevancy. The algorithm "remembers" where it has been and indexes the number of cross-links and relates these into groupings. PageRank is based on citation analysis that was developed in the 1950s by Eugene Garfield at the University of Pennsylvania. Google's founders cite Garfield's work in their original paper. In this way virtual communities of webpages are found. Teoma's search technology uses a communities approach in its ranking algorithm. NEC Research Institute has worked on similar technology. Web link analysis was first developed by Dr. Jon Kleinberg and his team while working on the CLEVER project at IBM's Almaden Research Center. Google is currently the most popular search engine.

In 2002, Yahoo! acquired Inktomi and in 2003, Yahoo! acquired Overture, which owned AlltheWeb and AltaVista. Despite owning its own search engine, Yahoo! initially kept using Google to provide its users with search results on its main web site Yahoo.com. However, in 2004, Yahoo! launched its own search engine based on the combined technologies of its acquisitions and providing a service that gave pre-eminence to the Web search engine over the directory.

The most recent major search engine is MSN Search, owned by Microsoft, which previously relied on others for its search engine listings. In 2004 it debuted a beta version of its own results, powered by its own web crawler (called msnbot). In early 2005 it started showing its own results live. This was barely noticed by average users unaware of where results come from, but was a huge development for many webmasters, who seek inclusion in the major search engines.

At the same time, Microsoft ceased using results from Inktomi, now owned by Yahoo!.

The other large (self described) search engines tend to be Web portals that merely show the results from another company's search engine (as MSN Search used to do). The other "true" search engines (those that provide their own results), like Gigablast, have vastly less market presence than the big three. However, since site usage is proprietary information, it is often difficult to determine which sites are most popular.

In February 2006, Ask Jeeves was rebranded as Ask.com. Games - The butler logo was removed and several new features including a redesigned home page, search tool box, maps (with walking directions and dynamic address generation) and more "Smart Answers" were added. Ask.com is now an algorithmic engine. While you can still ask questions, it operates using a relevance ranking. Ask.com utilizes the ranking algorithm that was originally developed for Teoma and its database continues to increase in size.

Ask.com results pages offer several features generally unavailable elsewhere. They include page previews and "Zoom" that help the searcher narrow, expand, and select related names. These features are found on the right hand side of results pages where other engines place advertising. In 2005 it was reported that Ask.com did a great deal of work to reduce the number of paid advertisements (Games, Topics) on a results page.

Web search engines work by storing information about a large number of web pages, which they retrieve from the WWW itself. These pages are retrieved by a Web crawler (sometimes also known as a spider) — an automated Web browser which follows every link it sees. Exclusions can be made by the use of robots.txt. The contents of each page are then analyzed to determine how it should be indexed (for example, words are extracted from the titles, headings, or special fields called meta tags). Data about Web pages is stored in an index database for use in later queries. Some search engines, such as Google, store all or part of the source page (referred to as a cache) as well as information about the web pages, whereas some store every word of every page it finds, such as AltaVista. This cached page always holds the actual search text since it is the one that was actually indexed, so it can be very useful when the content of the current page has been updated and the search terms are no longer in it. This problem might be considered to be a mild form of linkrot, and Google's handling of it increases usability by satisfying user expectations that the search terms will be on the returned Web page. This satisfies the principle of least astonishment since the user normally expects the search terms to be on the returned pages. Increased search relevance makes these cached pages very useful, even beyond the fact that they may contain data that may no longer be available elsewhere.

When a user comes to the search engine and makes a query, typically by giving key words, the engine looks up the index and provides a listing of best-matching web pages according to its criteria, usually with a short summary containing the document's title and sometimes parts of the text. Most search engines support the use of the boolean terms AND, OR and NOT to further specify the search query. An advanced feature is proximity search, which allows you to define the distance between keywords.

The usefulness of a search engine depends on the relevance of the result set it gives back. While there may be millions of Web pages that include a particular word or phrase, some pages may be more relevant, popular, or authoritative than others. Most search engines employ methods to rank the results to provide the "best" results first. How a search engine decides which pages are the best matches, and what order the results should be shown in, varies widely from one engine to another. The methods also change over time as Internet usage changes and new techniques evolve.

Most Web search engines are commercial ventures supported by advertising revenue and, as a result, some employ the controversial practice of allowing advertisers to pay money to have their listings ranked higher in search results. Those search engines which do not accept money for their search engine results make money by running search related ads alongside the regular search engine results. The search engines make money everytime someone clicks on one of these ads.

The vast majority of search engines are run by private companies using proprietary algorithms and closed databases, the most popular currently being Google, MSN Search, and Yahoo! Search. However, Open source search engine technology does exist, such as ht://Dig, Nutch, Senas, Egothor, OpenFTS, DataparkSearch and many others, like Online Spiele and Online Games.
12.9.06 18:08


white hat seo - black hat seo

Search engine optimization (SEO) is a set of methods aimed at improving the ranking of a website in search engine listings, and could be considered a subset of search engine marketing. The term SEO also refers to "search engine optimizers," an industry of consultants who carry out optimization projects on behalf of clients' sites. Some commentators, and even some SEOs, break down methods used by practitioners into categories such as "white hat SEO" (methods generally approved by search engines, such as building content and improving site quality), or "black hat SEO" (tricks such as cloaking and spamdexing). White hatters say that black hat methods are an attempt to manipulate search rankings unfairly. Black hatters counter that all SEO is an attempt to manipulate rankings, and that the particular methods one uses to rank well are irrelevant.

Search engines display different kinds of listings in the search engine results pages (SERPs), including: pay per click advertisements, paid inclusion listings, and organic search results. SEO is primarily concerned with advancing the goals of a website by improving the number and position of its organic search results for a wide variety of relevant keywords. SEO strategies may increase both the number and quality of visitors. Search engine optimization is sometimes offered as a stand-alone service, or as a part of a larger marketing effort, and can often be very effective when incorporated into the initial development and design of a site.

For competitive, high-volume search terms (like a Webkatalog), the cost of pay per click advertising can be substantial. Ranking well in the organic search results can provide the same targeted traffic at a potentially significant savings. Site owners may choose to optimize their sites for organic search, if the cost of optimization is less than the cost of advertising.

Not all sites have identical goals for search optimization. Some sites and directory seek any and all traffic, and may be optimized to rank highly for common search phrases. A broad search optimization strategy can work for a site that has broad interest, such as a periodical, a directory, Webkatalog, or site that displays advertising with a CPM revenue model. In contrast, many businesses try to optimize their sites for large numbers of highly specific keywords that indicate readiness to buy. Overly broad search optimization can hinder marketing strategy by generating a large volume of low-quality inquiries that cost money to handle, yet result in little business. Focusing on desirable traffic generates better quality sales leads, resulting in more sales. Search engine optimization can be very effective when used as part of a smart nice marketing strategy.

=====================================================

Webmasters and content providers began optimizing sites for search engines in the mid-1990s, as the first search engines were webalizer cataloging the early Web. Initially, all a webmaster needed to do was submit a site to the various engines which would run spiders, programs to "crawl" the site, and store the collected data. The default search-bracket was to scan an entire webpage for so-called related search words, so a page with many different words matched more searches, and a webpage containing a dictionary-type listing would match almost all searches, limited only by unique names. The search engines then sorted the information by topics, and served results based on pages they had crawled. As the number of documents online kept growing, and more webmasters realized the value of organic search listings, some popular search engines began to sort their listings so they could display the most relevant pages first. This was the start of a friction between search engine and webmasters that continues to this day.

At first search engines were guided by the webmasters themselves. Early versions of search algorithms relied on webmaster-provided information such as category and keyword meta tags, or index ticker files in engines like ALIWEB. Meta-tags provided a guide to each page's content. When some webmasters began to abuse meta tags, causing their pages to rank for irrelevant searches, search engines abandoned their consideration of meta tags and instead developed more complex ranking algorithms, taking into account factors that elevated a limited number of words (anti-dictionary) and were more diverse, including:

Text within the title tag
Domain or Subdomain name
URL directories and file names
HTML tags: headings, emphasized and strongly emphasized text
Term frequency, both in the document and globally, often misunderstood and mistakenly referred to as Keyword density
Keyword proximity
Keyword adjacency
Keyword sequence
Alt attributes for images
Text within NOFRAMES tags
Content development

Pringle, et al. (Pringle et al., 1998), also defined a number of attributes within the HTML source of a page which were often manipulated by web content providers attempting to rank well in search engines. But by relying so extensively on factors that were still within the webmasters' exclusive control, search engines continued to suffer from abuse and ranking manipulation. In order to provide better results to their users, search engines had to adapt to ensure their SERPs showed the most relevant search results, rather than useless pages stuffed with numerous keywords by unscrupulous webmasters using a bait-and-switch lure to display unrelated webpages. This led to the rise of a new kind of search engine

======================================================

Google was started by two PhD students at Stanford University, Sergey Brin and Larry Page, and brought a new concept to evaluating web pages. This concept, called PageRank, has been important to the Google algorithm from the start. PageRank relies heavily on incoming links and uses the logic that each link to a page is a vote for that page's value. The more incoming links a page had the more "worthy" it is. The value of each incoming link itself varies directly based on the PageRank of the page it comes from and inversely on the number of outgoing links on that page.

With help from PageRank, Google proved to be very good at serving relevant results. Google became the most popular and successful search engine. Because PageRank measured an off-site factor, Google felt it would be more difficult to manipulate than on-page factors.

However, webmasters had already developed link building tools and schemes to influence the Inktomi search engine. These methods proved to be equally applicable to Google's algorithm. Many sites focused on exchanging, buying, and selling links on a massive scale. PageRank's reliance on the link as a vote of confidence in a page's value was undermined as many webmasters sought to garner links purely to influence Google into sending them more traffic, irrespective of whether the link was useful to human site visitors.

Further complicating the situation, the default search-bracket was still to scan an entire smilie webpage or subdomains for so-called related search-words, and a webpage containing a dictionary-type listing would still match almost all searches (except special names) at an even higher priority given by link-rank. Dictionary pages and link schemes could severely skew search results.

It was time for Google -- and other search engines -- to look at a wider range of off-site factors. There were other reasons to develop more intelligent algorithms. The Internet was reaching a vast population of non-technical users who were often unable to use advanced querying techniques to reach the information they were seeking and the sheer volume and complexity of the indexed data was vastly different from that of the early days. Search engines had to develop predictive, semantic, linguistic and heuristic algorithms. Around the same time as the work that led to Google, IBM had begun work on the Clever Project, and Jon Kleinberg was developing the HITS algorithm.

A proxy for the PageRank metric is still displayed in the Google Toolbar, though the displayed value is rounded to be an integer, and the data updated infrequently, so it is likely to be outdated. For these reasons, and the fact that PageRank is only one of more than 100 "signals" that Google considers in ranking pages, experienced SEOs recommend ignoring the displayed PageRank.

Today, most search engines keep their methods and ranking algorithms secret, to compete for finding the most valuable search-results and to deter spam pages from clogging those results. A search engine may use hundreds of factors in ranking the listings on its SERPs; the factors themselves and the weight each carries may change continually. Algorithms can differ widely: a webpage that ranks #1 in a particular search engine could rank #200 in another search engine.

Google, Yahoo and MSN do not disclose the algorithms they use to rank pages. Some SEOs have carried out controlled experiments to gauge the effects of different approaches to search optimization. Based on these experiments, often shared through online forums and blogs, professional SEOs form a consensus on what methods work best.
25.8.06 15:03


Wie bewerten Suchmaschinen einen Webseiteneintrag

Eine Suchmaschine ist ein Programm zur Recherche von Dokumenten, die in einem Computer oder einem Computernetzwerk wie z. B. dem World Wide Web gespeichert sind. Nach Eingabe eines Suchbegriffs liefert eine Suchmaschine eine Liste von Verweisen auf moeglicherweise relevante Dokumente, meistens dargestellt mit Titel und einem kurzen Auszug des jeweiligen Dokuments. Dabei koennen verschiedene Suchverfahren Anwendung finden.

Die wesentlichen Bestandteile bzw. Aufgabenbereiche einer Suchmaschine sind

Erstellung und Pflege eines Indexes (Datenstruktur mit Informationen ueber Dokumente),
Verarbeiten von Suchanfragen (Finden und Ordnen von Ergebnissen) sowie
Aufbereitung der Ergebnisse in einer moeglichst sinnvollen Form.
In der Regel erfolgt die Datenbeschaffung automatisch, im WWW durch Webcrawler, auf einem einzelnen Computer durch regelmaessiges Einlesen aller Dateien in vom Benutzer spezifizierten Verzeichnissen im lokalen Dateisystem.

Arten von Suchmaschinen
Suchmaschinen lassen sich nach einer Reihe von Merkmalen kategorisieren. Die drei nachfolgenden Merkmale sind orthogonal zueinander. Man kann beim Entwurf einer Suchmaschine also fuer eine Moeglichkeit aus jeder der drei Merkmalsgruppen entscheiden, unabhaengig von den anderen Merkmalen. Die gaengigste und meistgenutzte Kombination ist eine indexbasierte (Realisierung) Websuchmaschine (Datenquelle) auf HTML-Textdokumenten (Art der Daten), wie sie unter anderem von den drei grossen Suchmaschinenanbietern Google, Yahoo! Search und MSN Search bereitgestellt wird.

Art der Daten
Verschiedene Suchmaschinen koennen unterschiedliche Arten von Daten durchsuchen. Zunaechst lassen sich diese grob in „Dokumenttypen“ wie Text, Bild, Ton, Video und andere unterteilen. Ergebnisseiten werden in Abhaengigkeit von dieser Gattung gestaltet. Bei einer Suche nach Textdokumenten wird ueblicherweise ein Textfragment angezeigt, welches die Suchbegriffe enthaelt. Bildsuchmaschinen zeigen eine Miniaturansicht der passenden Bilder an.

Eine weitere feinere Aufgliederung geht auf datenspezifische Eigenschaften ein, die nicht alle Dokumente innerhalb einer Gattung teilen. Bleibt man beim Beispiel Text, so kann bei Usenet-Beitraegen nach bestimmten Autoren gesucht werden, bei Web-Seiten im HTML-Format nach dem Dokumententitel.

Je nach Datengattung ist als weitere Funktion eine Einschraenkung auf eine Untermenge aller Daten einer Gattung moeglich. Dieses wird im Allgemeinen ueber zusaetzliche Suchparameter realisiert, die einen Teil der erfassten Daten ausschliesst. Alternativ kann sich eine Suchmaschine darauf beschraenken, von Anfang an nur passende Dokumente aufzunehmen. Beispiele sind etwa eine Suchmaschine fuer Weblogs (statt fuer das komplette Web) oder Suchmaschinen, die nur Dokumente von Universitaeten verarbeiten, oder ausschliesslich Dokumente aus einem bestimmten Land, in einer bestimmten Sprache oder einem bestimmten Dateiformat.

Datenquelle
Ein weiteres Merkmal zur Kategorisierung ist die Quelle, aus der die von der Suchmaschine erfassten Daten stammen. Meistens beschreibt bereits der Name der Suchmaschinenart die Quelle.

Websuchmaschinen erfassen Dokumente aus dem World Wide Web, Usenetsuchmaschinen Beitraege aus dem weltweit verteilten Diskussionsmedium Usenet. Intranetsuchmaschinen beschraenken sich auf die Rechner des Intranets einer Firma. Als Desktopsuchmaschinen werden neuerdings Programme bezeichnet, welche den lokalen Datenbestand eines einzelnen Computers durchsuchbar machen.

Wird die Datenbeschaffung manuell mittels Anmeldung oder durch Lektoren vorgenommen, spricht man von einem Katalog oder Verzeichnis. In solchen Verzeichnissen wie dem Open Directory Project sind die Dokumente hierarchisch in einem Inhaltsverzeichnis nach Themen organisiert.

Realisierung
Dieser Abschnitt beschreibt Unterschiede in der Realisierung des Betriebs der Suchmaschine.

Die heutzutage wichtigste Gruppe sind indexbasierte Suchmaschinen. Diese lesen passende Dokumente ein und legen einen Index an. Dabei handelt es sich um eine Datenstruktur, die bei einer spaeteren Suchanfrage verwendet wird. Nachteil ist die aufwendige Pflege und Speicherung des Indexes, Vorteil ist die Beschleunigung des Suchvorgangs.
Metasuchmaschinen schicken Suchanfragen parallel an mehrere indexbasierte Suchmaschinen und kombinieren die Einzelergebnisse. Als Vorteil ergibt sich die groessere Datenmenge sowie die einfachere Implementierung, da kein Index vorgehalten werden muss. Nachteil ist die relativ lange Dauer der Anfragebearbeitung. Ausserdem ist das Ranking durch reine Mehrheitsfindung von fragwuerdigem Wert. Die Qualitaet der Ergebnisse wird unter Umstaenden auf die Qualitaet der schlechtesten unterliegenden Suchmaschine reduziert. Metasuchmaschinen sind vor allem bei selten vorkommenden Suchbegriffen sinnvoll.
Weiterhin existieren Hybridformen. Diese besitzen einen eigenen, oft relativ kleinen Index, befragen aber auch andere Suchmaschinen und kombinieren schliesslich die Einzelergebnisse. Sogenannte Echtzeitsuchmaschinen starten etwa den Indexierungsvorgang erst nach einer Anfrage. So sind die gefundenen Seiten zwar stets aktuell, die Qualitaet der Ergebnisse ist aber aufgrund der fehlenden breiten Datenbasis insbesondere bei weniger gaengigen Suchbegriffen schlecht.
Ein relativ neuer Ansatz sind verteilte Suchmaschinen. Dabei wird eine Suchanfrage an eine Vielzahl von einzelnen Computern weitergeleitet, die jeweils eine eigene Suchmaschine betreiben, und die Ergebnisse zusammengefuehrt. Vorteil ist die hohe Ausfallsicherheit aufgrund der Dezentralisierung und – je nach Sichtweise – die fehlende Moeglichkeit, zentral zu zensieren. Schwierig zu loesen ist allerdings das Ranking, also die Sortierung der grundsaetzlich passenden Dokumente nach ihrer Relevanz fuer die Anfrage.

Sortierung der Ergebnisse
Die Darstellung der Suchergebnisse geschieht sortiert nach Relevanz (Ranking bzw. Suchrang), wofuer jede Suchmaschine ihre eigenen, meistens geheim gehaltenen Kriterien heranzieht. Dazu gehoeren:

Die grundlegende Bedeutung eines Dokuments (bei Google der PageRank-Wert).
Haeufigkeit und Stellung der Suchbegriffe im jeweiligen gefundenen Dokument.
Einstufung und Anzahl der zitierten Dokumente.
Haeufigkeit von Verweisen anderer Dokumente auf das im Suchergebnis enthaltene Dokument sowie in Verweisen enthaltener Text.
Einstufung der Qualitaet der verweisenden Dokumente (ein Link von einem „guten“ Dokument ist mehr wert als der Verweis von einem mittelmaessigen Dokument).
Manche Suchmaschinen sortieren Suchergebnisse nicht nur nach Relevanz fuer die Suchanfrage, sondern lassen gegen Bezahlung auch Einflussnahme auf ihre Ausgabe zu. In den letzten Jahren hat sich allerdings bei den grossen Anbietern eine Trennung zwischen Suchergebnissen und als „bezahlte Treffer“ markierte eingeblendeter Werbung durchgesetzt, welche auf die Suchanfrage zugeschnitten ist.

Geschichte
Archie kann als aeltester Vorfahre der heute allseits bekannten Suchmaschinen und Webverzeichnisse angesehen werden.

Der erste Vorlaeufer der heutigen Suchmaschinen war eine im Jahr 1991 an der University of Minnesota massgeblich von Paul Lidner und Mark P. McCahill entwickelte Software namens Gopher. Sie wurde als Campuswide Information System (CWIS) zur Vernetzung der dortigen Informationsserver entwickelt und basiert auf dem Client-Server-Prinzip. Die Struktur von Gopher war fuer den damaligen Zeitpunkt richtungsweisend; alle Gopher-Seiten wurden katalogisiert und konnten vom Gopher-Sucher Veronica (Very Easy Rodent-Oriented Net-wide Index to Computerized Archives) komplett durchsucht werden. Allerdings verschwand Gopher schon einige Jahre spaeter, vermutlich vor allem wegen der fehlenden Moeglichkeit, Bilder und Grafiken einzubinden.

Mit der Freigabe des WWW-Standards (Webkonferenz, Telefonkonferenz) zur kostenlosen Nutzung 1993 und einer handvoll Webseiten begann die einzigartige Erfolgsgeschichte des weltweiten Datennetzes. Der erste Webcrawler namens The Wanderer wurde im selben Jahr von Mathew Gray programmiert, einem Studenten des Massachusetts Institute of Technology (MIT). The Wanderer durchsuchte und katalogisierte von 1993 bis 1996 halbjaehrlich das zu dieser Zeit noch sehr uebersichtliche Web. Im Juni 1993 wurden insgesamt 130 Websites gezaehlt. Im Oktober des gleichen Jahres wurde Aliweb (Archie-Like Indexing of the Web) entwickelt, bei dem die Betreiber von Webservern eine Beschreibung ihres Dienstes in einer Datei ablegen mussten, um so ein Teil des durchsuchbaren Index zu werden.

Im Dezember 1993 gingen die Suchmaschinen Jumpstation, WorldWideWeb Worm und RBSE Spider ans Netz. Die beiden erstgenannten waren Crawler, die Webseiten nach Titel und URL indexierten. RBSE Spider war die erste Suchmaschine, die ihre Ergebnisse nach einem eigenen Ranking-System sortiert anzeigte. Keine dieser Suchmaschinen bietet heute noch ihre Dienste an.

Im April 1994 ging eine weitere Suchmaschine namens WebCrawler online, die ebenfalls eine nach Ranking sortierte Trefferliste vorweisen konnte. 1995 wurde sie an AOL verkauft, ein Jahr spaeter weiter an Excite. Im Mai begann die Arbeit von Michael Mauldins an der Suchmaschine Lycos, die im Juli 1994 online ging. Neben der Worthaeufigkeit der Suchbegriffe innerhalb der Webseiten durchsuchte Lycos auch die Naehe der Suchbegriffe untereinander im Dokument.

Im selben Jahr riefen David Filo und Jerry Yang, beide damals Studenten des Fachbereichs Elektrotechnik an der Stanford University, eine Sammlung ihrer besten Web-Adressen in einem online verfuegbaren Verzeichnisdienst ins Leben – die Geburtsstunde von Yahoo! (fuer Yet Another Hierarchical Officious Oracle).

Das Jahr 1995 sollte eine bedeutende Trendwende fuer die erst kurze Geschichte der Suchmaschinen werden: In diesem Jahr wurden erstmals Suchmaschinen von kommerziellen Firmen entwickelt. Aus diesen Entwicklungen entstanden Infoseek, Architext (wurde spaeter in Excite umbenannt) und AltaVista. Ein Jahr spaeter wurde Inktomi Corp. gegruendet, deren gleichnamige Suchmaschine zur Grundlage von Hotbot und anderen Suchseiten wurde. Fuehrend in dieser Zeit war der Verzeichnisdienst von Yahoo, aber AltaVista (der Name bedeutet „Blick von oben“, ist aber auch ein Wortspiel den Standort Palo Alto betreffend) wurde zunehmend populaer.

1996 war das Startjahr von zwei Metasuchmaschinen. MetaCrawler erblickte in den USA das Licht der Welt und – in Deutschland – MetaGer. Bis zur Marktdurchdringung von Google galten Metasuchmaschinen als eine der interessantesten Informationsbeschaffer, da der Suchindex der Suchmaschinen ueberwiegend Teilbereiche des Internets enthielt. Metasuchmaschinen leiten die Abfragen des Nutzers parallel an mehrere Suchmaschinen weiter und fassen die Treffer formatiert zusammen.

Ende 1998 veroeffentlichten Larry Page und Sergey Brin ihre innovative Suchmaschinen-Technologie in dem Artikel The Anatomy of a Large-Scale Hypertextual Web Search Engine. Diese Arbeit stellte den Startschuss fuer die bisher erfolgreichste Suchmaschine der Welt dar: Google. Im September 1999 erreichte Google Beta-Status. Die geordnete Benutzeroberflaeche, die Geschwindigkeit und die Relevanz der Suchergebnisse bildeten die Eckpfeiler auf dem Weg, die computererfahrenen Nutzer fuer sich zu gewinnen. Ihnen folgten in den naechsten Jahren bis heute Scharen von neuen Internetbenutzern. Doch Google dominiert den Suchmaschinenmarkt nicht allein, durch spektakulaere Aufkaeufe im Fruehjahr 2003 sicherte sich Yahoo! den Anschluss in diesem Marktsegment.

Seit 2004 gibt es nach einigen Firmenuebernahmen nur mehr drei grosse (bezogen auf die Anzahl erfasster Dokumente) indexbasierte kommerzielle Websuchmaschinen. Neben Google sind dieses Yahoo! Search und Microsofts MSN Search.

Herausforderungen
Suchmaschinen muessen im Betrieb mit verschiedenartigen Probleme umgehen:

Mehrdeutigkeit – Suchanfragen sind oft unpraezise. So kann die Suchmaschine nicht selbstaendig entscheiden, ob beim Begriff Gitarre nach einem Instrument oder Musik gesucht werden soll. Umgekehrt sollte die Suchmaschine nicht zu stur auf dem eingegebenen Begriff bestehen. Sie sollte auch Synonyme einbeziehen, damit der Suchbegriff Rechner Linux auch Seiten findet, die statt Rechner das Wort Computer enthalten.
Grammatik – Viele moegliche Treffer gehen verloren, weil der Nutzer nach einer bestimmten grammatikalischen Form eines Suchbegriffes sucht. So findet die Suche nach dem Begriff Auto zwar alle im Suchindex enthaltenen Seiten, die diesen Begriff enthalten, nicht aber jene mit dem Begriff Autos. Manche Suchmaschinen erlauben die Suche mittels Wildcards, mit denen sich dieses Problem teilweise umgehen laesst (z. B. beruecksichtigt die Suchanfrage Auto* auch den Begriff Autos oder Automatismus), allerdings muss der Nutzer die Moeglichkeit auch kennen. Weiterhin wird oft Stemming verwendet, dabei werden Woerter auf ihren Grundstamm reduziert. So ist einerseits eine Abfrage nach aehnlichen Wortformen moeglich (schoene Blumen findet so auch schoener Blume), ausserdem wird die Anzahl der Begriffe im Index reduziert. Eine weitere Moeglichkeit ist der Einsatz statistischer Verfahren, mit denen die Suchmaschine die Anfrage z. B. durch das Auftauchen verschiedener verwandter Begriffe auf Webseiten danach bewertet, ob mit der Suche nach Auto reparieren auch die Suche nach Autos reparatur oder Automatismus repariert gemeint gewesen sein koennte.
Datenmenge – Das Web waechst schneller als die Suchmaschinen mit der derzeitigen Technik indexieren koennen. Dabei ist der den Suchmaschinen unbekannte Teil – das sogenannte Deep Web – noch gar nicht eingerechnet.
Aktualitaet – Viele Webseiten werden haeufig aktualisiert, was die Suchmaschinen zwingt, diese Seiten nach definierbaren Regeln (Robots) immer wieder zu besuchen. Dieses ist auch notwendig, um zwischenzeitlich aus der Datenbasis entfernte Dokumente zu erkennen und nicht laenger als Ergebnis anzubieten. Das regelmaessige Herunterladen der mehreren Milliarden Dokumente, die eine Suchmaschine im Index hat, stellt grosse Anforderungen an die Netzwerkressourcen (Traffic) des Suchmaschinenbetreibers.
Spam – Mittels Suchmaschinen-Spamming versuchen manche Website-Betreiber, den Ranking-Algorithmus der Suchmaschinen zu ueberlisten, um eine bessere Platzierung fuer gewisse Suchanfragen zu bekommen. Sowohl den Betreibern der Suchmaschine als auch deren Kunden schadet dieses, da nun nicht mehr die relevantesten Dokumente zuerst angezeigt werden.
Technik – Suchen auf sehr grossen Datenmengen so umzusetzen, dass die Verfuegbarkeit hoch ist (trotz Hardware-Ausfaellen und Netzengpaessen) und die Antwortzeiten niedrig (obwohl oft pro Suchanfrage das Lesen und Verarbeiten mehrerer 100 MB Index-Daten erforderlich ist), stellt grosse Anforderungen an den Suchmaschinenbetreiber. Systeme muessen sehr redundant ausgelegt sein, zum einen auf den Computern vor Ort in einem Rechenzentrum, zum anderen sollte es mehr als ein Rechenzentrum geben, welches die komplette Suchmaschinenfunktionalitaet anbietet.
Recht – Suchmaschinen werden meistens international betrieben und bieten somit Benutzern Ergebnisse von Servern, die in anderen Laendern stehen. Da die Gesetzgebungen der verschiedenen Laender unterschiedliche Auffassungen davon haben, welche Inhalte erlaubt sind, geraten Betreiber von Suchmaschinen oft unter Druck, gewisse Seiten von ihren Ergebnissen auszuschliessen. Die deutschen Internet-Suchmaschinen wollen jugendgefaehrdende Seiten durch die Freiwillige Selbstkontrolle aus ihren Trefferlisten streichen.
14.7.06 17:43


 [eine Seite weiter]



Verantwortlich für die Inhalte ist der Autor. Dein kostenloses Blog bei myblog.de! Datenschutzerklärung
Werbung