Was sind die Vor- und Nachteile einer bestimmten Programmiersprache? Ist X eine gute Sprache für meine Aufgabe? Wenn Sie die „beste Programmiersprache“ googeln, erhalten Sie eine Standardliste mit „Python, Java, JavaScript, C #, C ++, PHP“ und einer vagen Liste mit Vor- und Nachteilen. Wenn ich solche Artikel sehe, erschrecke ich – ihre Autoren müssen geradezu faul, unerfahren und ohne Vorstellungskraft gewesen sein. Lassen Sie uns tief eintauchen und herausfinden, was wirklich scheiße ist – und was nicht.

In diesem Artikel werde ich versuchen, einen objektiven und hoffentlich unvoreingenommenen Überblick über beliebte (und nicht so beliebte) moderne Programmiersprachen zu geben, die vom schlechtesten zum besten bewertet werden.

Denken Sie daran, es gibt keine perfekte Programmiersprache. Einige eignen sich am besten für die Back-End- / API-Entwicklung, andere eignen sich hervorragend für die Systemprogrammierung.

Ich werde zwei der häufigsten Sprachfamilien der Welt behandeln: Sprachen, die von C abstammen , und Sprachen, die von ML abstammen .

Programmiersprachen sind nur Werkzeuge in der Toolbox eines Entwicklers. Es ist wichtig, das richtige Werkzeug für den Job auszuwählen. Ich hoffe sehr, dass dieser Leitfaden Ihnen bei der Auswahl der für Ihre Aufgabe am besten geeigneten Programmiersprache hilft. Wenn Sie die richtige Wahl treffen, sparen Sie möglicherweise Monate (oder sogar Jahre) Entwicklungsaufwand.

Wollen Sie eines Tages Softwareentwickler werden? Möchten Sie auch eine mobile Anwendung entwickeln, die Menschen auf der ganzen Welt gerne nutzen würden? Sind Sie leidenschaftlich genug, um den großen Schritt in die Welt des Programmierens zu machen? Dann sind Sie hier richtig, denn durch diesen Artikel erhalten Sie eine kurze Einführung in die Programmierung. Bevor wir verstehen, was Programmierung ist, müssen Sie wissen, was ein Computer ist. Ein Computer ist ein Gerät, das menschliche Anweisungen annehmen, verarbeiten und darauf reagieren kann, oder ein Computer ist ein Rechengerät, mit dem die Daten unter der Steuerung eines Computerprogramms verarbeitet werden. Programm ist eine Folge von Anweisungen zusammen mit Daten.
Die Grundkomponenten eines Computers sind:

  1. Eingabe Einheit
  2. Central Processing Unit (CPU)
  3. Ausgabeeinheit

Die CPU ist weiter in drei Teile unterteilt.

  • Speichereinheit
  • Steuergerät
  • Arithmetik-Logikeinheit

Die meisten von uns haben gehört, dass die CPU das Gehirn unseres Computers genannt wird, weil sie Daten akzeptiert, temporären Speicherplatz bereitstellt, bis sie auf der Festplatte gespeichert (gespeichert) werden, logische Operationen daran ausführt und damit verarbeitet (hier auch Konvertierungen bedeutet) ) Daten in Informationen. Wir alle wissen, dass ein Computer aus Hardware und Software besteht. Software ist eine Reihe von Programmen, die mehrere Aufgaben gleichzeitig ausführen. Ein Betriebssystem ist auch eine Software (Systemsoftware), die dem Menschen hilft, mit dem Computersystem zu interagieren.

Ein Programm ist eine Reihe von Anweisungen, die einem Computer gegeben werden, um eine bestimmte Operation auszuführen. oder Computer ist ein Rechengerät, das zum Verarbeiten der Daten unter der Steuerung eines Computerprogramms verwendet wird. Während der Ausführung des Programms werden Rohdaten in ein gewünschtes Ausgabeformat verarbeitet. Diese Computerprogramme sind in einer Programmiersprache geschrieben, die Hochsprachen sind. Hochsprachen sind fast menschliche Sprachen, die komplexer sind als die computerverständliche Sprache, die als Maschinensprache oder Niedrigsprache bezeichnet wird. Nachdem wir die Grundlagen kennen, sind wir bereit, ein sehr einfaches und grundlegendes Programm zu erstellen. Da wir verschiedene Sprachen haben, um miteinander zu kommunizieren, haben wir auch verschiedene Sprachen wie C, C ++, C #, Java, Python usw., um mit den Computern zu kommunizieren.

Der unten angegebene Code führt eine grundlegende Aufgabe aus: „Hallo Welt! Ich lerne Programmieren “auf dem Konsolenbildschirm. Wir müssen wissen, dass Tastatur, Scanner, Maus, Mikrofon usw. verschiedene Beispiele für Eingabegeräte sind und Monitor (Konsolenbildschirm), Drucker, Lautsprecher usw. Beispiele für Ausgabegeräte sind.Zu diesem Zeitpunkt können Sie möglicherweise nicht genau verstehen, wie dieser Code etwas auf dem Bildschirm druckt. Main () ist eine Standardfunktion, die Sie immer in jedes Programm aufnehmen, das Sie von nun an erstellen werden. Beachten Sie, dass die Ausführung des Programms von der Funktion main () ausgeht. Die Funktion clrscr () wird verwendet, um nur die aktuelle Ausgabe auf dem Bildschirm anzuzeigen, während die Funktion printf () uns hilft, die gewünschte Ausgabe auf dem Bildschirm zu drucken. Außerdem ist getch () eine Funktion, die jede Zeicheneingabe über die Tastatur akzeptiert. Mit einfachen Worten, wir müssen eine beliebige Taste drücken, um fortzufahren (einige Leute sagen möglicherweise, dass getch () dabei hilft, den Bildschirm zu halten, um die Ausgabe zu sehen).

Zwischen Hochsprache und Maschinensprache gibt es Assemblersprache, die auch als symbolischer Maschinencode bezeichnet wird. Assemblersprachen sind besonders computerarchitekturspezifisch. Das Hilfsprogramm ( Assembler ) wird verwendet, um Assemblycode in ausführbaren Maschinencode zu konvertieren. High-Level-Programmiersprachen sind portabel, erfordern jedoch Interpretation oder Kompilierung, um sie in eine Maschinensprache umzuwandeln, die vom Computer verstanden wird.

Beliebteste Programmiersprachen –

  • C.
  • Python
  • C ++
  • Java
  • SCALA
  • C #
  • R.
  • Rubin
  • Gehen
  • Schnell
  • JavaScript

Eigenschaften einer Programmiersprache –

  • Eine Programmiersprache muss einfach, leicht zu erlernen und zu verwenden, gut lesbar und vom Menschen erkennbar sein.
  • Abstraktion ist ein Muss für eine Programmiersprache, in der die Fähigkeit besteht, die komplexe Struktur und dann ihren Grad an Benutzerfreundlichkeit zu definieren.
  • Eine tragbare Programmiersprache wird immer bevorzugt.
  • Die Effizienz der Programmiersprache muss hoch sein, damit sie leicht in einen Maschinencode konvertiert und ausgeführt werden kann und wenig Speicherplatz beansprucht.
  • Eine Programmiersprache sollte gut strukturiert und dokumentiert sein, damit sie für die Anwendungsentwicklung geeignet ist.
  • Notwendige Tools zum Entwickeln, Debuggen, Testen und Warten eines Programms müssen von einer Programmiersprache bereitgestellt werden.
  • Eine Programmiersprache sollte eine einzelne Umgebung bereitstellen, die als Integrated Development Environment (IDE) bezeichnet wird.
  • Eine Programmiersprache muss in Bezug auf Syntax und Semantik konsistent sein.

EINFÜHRUNG

Virtualisierung im Cloud Computing ist definiert als die Erstellung einer virtuellen Version eines Servers, eines Desktops, eines Speichergeräts, eines Betriebssystems oder von Netzwerkressourcen. Es handelt sich im Wesentlichen um eine Technik oder Methode, mit der eine einzelne physische Instanz einer Ressource oder einer Anwendung von mehreren Organisationen oder Kunden gemeinsam genutzt werden kann. Es hilft, den Dienst von der zugrunde liegenden physischen Bereitstellung des Dienstes zu trennen. Mit Hilfe dieser Technik können anschließend mehrere Betriebssysteme und Anwendungen auf derselben Maschine und Hardware ausgeführt werden.

1. DER VIRTUALISIERUNGSPROZESS IM CLOUD COMPUTING

Bei diesem Vorgang wird dem physischen Speicher ein sinnvoller Name zugewiesen, und bei Bedarf werden Zeiger auf diese physische Quelle bereitgestellt. Neben der Ausführung von Anwendungen bietet die Virtualisierungstechnologie auch eine virtuelle Umgebung für Speicher, Netzwerk und Speicher. Die Maschine, auf der die virtuelle Maschine aufgebaut ist, wird als Host-Maschine bezeichnet, und die virtuelle Maschine wird als Gastmaschine bezeichnet. Virtualisierung ist häufig ein Synonym für Hardware-Virtualisierung, ein Prozess, der eine wichtige Rolle bei der effizienten und effektiven Bereitstellung von IAAS-Lösungen (Infrastructure as a Service) für Cloud Computing spielt.

2. ARCHITEKTURVIRTUALISIERUNG

Virtuelle Architektur bezieht sich auf das konzeptionelle Modell der Virtualisierung. Die Virtualisierung basiert normalerweise auf Hypervisor. Der Hypervisor ermöglicht die Trennung der Betriebssysteme und der Anwendungen von der zugrunde liegenden Computerhardware, damit der Hostcomputer mehrere virtuelle Maschinen als Gäste ausführen kann, die die physischen Rechenressourcen des Systems gemeinsam nutzen. Es gibt zwei Arten:

Virtualisierung ist eine Technik zum Trennen eines Dienstes von der zugrunde liegenden physischen Bereitstellung dieses Dienstes. Es ist der Prozess des Erstellens einer virtuellen Version von etwas wie Computerhardware. Es wurde ursprünglich während der Mainframe-Ära entwickelt. Dabei wird spezielle Software verwendet, um eine virtuelle oder von Software erstellte Version einer Computerressource zu erstellen, anstatt die tatsächliche Version derselben Ressource. Mithilfe der Virtualisierung können mehrere Betriebssysteme und Anwendungen gleichzeitig auf demselben Computer und derselben Hardware ausgeführt werden, wodurch die Auslastung und Flexibilität der Hardware erhöht wird.

Mit anderen Worten, eine der wichtigsten kostengünstigen, hardwarereduzierenden und energiesparenden Techniken, die von Cloud-Anbietern verwendet werden, ist die Virtualisierung. Durch die Virtualisierung kann eine einzelne physische Instanz einer Ressource oder Anwendung für mehrere Kunden und Organisationen gleichzeitig freigegeben werden. Dazu wird einem physischen Speicher ein logischer Name zugewiesen und bei Bedarf ein Zeiger auf diese physische Ressource bereitgestellt. Der Begriff Virtualisierung ist häufig ein Synonym für Hardwarevirtualisierung, die eine grundlegende Rolle bei der effizienten Bereitstellung von IaaS-Lösungen (Infrastructure-as-a-Service) für Cloud Computing spielt. Darüber hinaus bieten Virtualisierungstechnologien eine virtuelle Umgebung, in der nicht nur Anwendungen ausgeführt werden, sondern auch Speicher, Speicher und Netzwerke.

Die Maschine, auf der die virtuelle Maschine erstellt werden soll, wird als Host-Maschine bezeichnet, und diese virtuelle Maschine wird als Gastmaschine bezeichnet.

VORTEILE DER VIRTUALISIERUNG
1. Flexiblere und effizientere Zuweisung von Ressourcen.
2. Steigern Sie die Entwicklungsproduktivität.
3. Es senkt die Kosten der IT-Infrastruktur.
4. Fernzugriff und schnelle Skalierbarkeit.
5. Hohe Verfügbarkeit und Notfallwiederherstellung.
6. Bezahlen Sie bei Bedarf pro Nutzung der IT-Infrastruktur.
7.Ermöglicht das Ausführen mehrerer Betriebssysteme.

Arten der Virtualisierung:

1.
Anwendungsvirtualisierung : Die Anwendungsvirtualisierung hilft einem Benutzer, von einem Server aus auf eine Anwendung remote zuzugreifen. Der Server speichert alle persönlichen Informationen und andere Merkmale der Anwendung, kann jedoch weiterhin über das Internet auf einer lokalen Workstation ausgeführt werden. Ein Beispiel hierfür wäre ein Benutzer, der zwei verschiedene Versionen derselben Software ausführen muss. Technologien, die Anwendungsvirtualisierung verwenden, sind gehostete Anwendungen und gepackte Anwendungen.

2.
Netzwerkvirtualisierung : Die Möglichkeit, mehrere virtuelle Netzwerke mit jeweils einem Netzwerk auszuführen, verfügt über einen separaten Steuerungs- und Datenplan. Es existiert zusammen auf einem physischen Netzwerk. Es kann von einzelnen Parteien verwaltet werden, die möglicherweise untereinander vertraulich sind.
Die Netzwerkvirtualisierung bietet die Möglichkeit, virtuelle Netzwerke zu erstellen und bereitzustellen – logische Switches, Router, Firewalls, Load Balancer, VPN (Virtual Private Network) und Workload-Sicherheit innerhalb von Tagen oder sogar Wochen.

3.
Desktop- Virtualisierung: Mit der Desktop-Virtualisierung kann das Betriebssystem des Benutzers remote auf einem Server im Rechenzentrum gespeichert werden. Der Benutzer kann von jedem Ort auf einem anderen Computer virtuell auf seinen Desktop zugreifen. Benutzer, die andere Betriebssysteme als Windows Server wünschen, benötigen einen virtuellen Desktop. Die Hauptvorteile der Desktop-Virtualisierung sind Benutzermobilität, Portabilität, einfache Verwaltung der Softwareinstallation, Updates und Patches.

4.
Speichervirtualisierung : Die Speichervirtualisierung ist ein Array von Servern, die von einem virtuellen Speichersystem verwaltet werden. Die Server wissen nicht genau, wo ihre Daten gespeichert sind, und funktionieren stattdessen eher wie Arbeiterbienen in einem Bienenstock. Damit kann der Speicher aus mehreren Quellen verwaltet und als ein einziges Repository verwendet werden. Die Speichervirtualisierungssoftware sorgt trotz Änderungen, Ausfällen und Unterschieden in der zugrunde liegenden Ausrüstung für einen reibungslosen Betrieb, eine konsistente Leistung und eine kontinuierliche Reihe erweiterter Funktionen.

Virtualisierung ist die „Erstellung einer virtuellen (und nicht tatsächlichen) Version von etwas wie einem Server, einem Desktop, einem Speichergerät, einem Betriebssystem oder Netzwerkressourcen“.

Mit anderen Worten, Virtualisierung ist eine Technik, mit der eine einzelne physische Instanz einer Ressource oder Anwendung von mehreren Kunden und Organisationen gemeinsam genutzt werden kann. Dazu wird einem physischen Speicher ein logischer Name zugewiesen und bei Bedarf ein Zeiger auf diese physische Ressource bereitgestellt.

Was ist das Konzept hinter der Virtualisierung?

Die Erstellung einer virtuellen Maschine über ein vorhandenes Betriebssystem und eine vorhandene Hardware wird als Hardwarevirtualisierung bezeichnet. Eine virtuelle Maschine bietet eine Umgebung, die logisch von der zugrunde liegenden Hardware getrennt ist.

Die Maschine, auf der die virtuelle Maschine erstellt werden soll, wird als Host-Maschine bezeichnet, und diese virtuelle Maschine wird als Gastmaschine bezeichnet

Arten der Virtualisierung:

  1. Hardware-Virtualisierung.
  2. Betriebssystemvirtualisierung.
  3. Servervirtualisierung.
  4. Speichervirtualisierung.

1) Hardware-Virtualisierung:

Wenn die Software der virtuellen Maschine oder der VMM- Manager ( Virtual Machine Manager ) direkt auf dem Hardwaresystem installiert ist, wird dies als Hardwarevirtualisierung bezeichnet.

Die Hauptaufgabe von Hypervisor besteht darin, den Prozessor, den Speicher und andere Hardwareressourcen zu steuern und zu überwachen.

Nach der Virtualisierung des Hardwaresystems können wir verschiedene Betriebssysteme darauf installieren und verschiedene Anwendungen auf diesen Betriebssystemen ausführen.

Verwendung:

Die Hardwarevirtualisierung wird hauptsächlich für die Serverplattformen durchgeführt, da die Steuerung virtueller Maschinen viel einfacher ist als die Steuerung eines physischen Servers.

2) Betriebssystemvirtualisierung:

Wenn die Software der virtuellen Maschine oder der VMM- Manager ( Virtual Machine Manager ) auf dem Host-Betriebssystem anstatt direkt auf dem Hardwaresystem installiert ist, wird dies als Betriebssystemvirtualisierung bezeichnet.

Verwendung:

Die Betriebssystemvirtualisierung wird hauptsächlich zum Testen der Anwendungen auf verschiedenen Betriebssystemplattformen verwendet.

3) Servervirtualisierung:

Wenn die Software für virtuelle Maschinen oder der VMM- Manager ( Virtual Machine Manager ) direkt auf dem Serversystem installiert ist, wird dies als Servervirtualisierung bezeichnet.

Verwendung:

Die Servervirtualisierung erfolgt, weil ein einzelner physischer Server je nach Bedarf und zum Lastausgleich in mehrere Server aufgeteilt werden kann.

4) Speichervirtualisierung:

Bei der Speichervirtualisierung wird der physische Speicher mehrerer Netzwerkspeichergeräte so gruppiert, dass er wie ein einzelnes Speichergerät aussieht .

Die Speichervirtualisierung wird auch mithilfe von Softwareanwendungen implementiert.

Verwendung:

Die Speichervirtualisierung erfolgt hauptsächlich zu Sicherungs- und Wiederherstellungszwecken.

Wie funktioniert Virtualisierung im Cloud Computing?

Virtualisierung spielt eine sehr wichtige Rolle in der Cloud-Computing-Technologie. Normalerweise teilen Benutzer beim Cloud-Computing die in den Clouds vorhandenen Daten wie Anwendungen usw., aber tatsächlich teilen Benutzer mithilfe der Virtualisierung die Infrastruktur.

Die Hauptanwendung der Virtualisierungstechnologie besteht darin, den Anwendungen die Standardversionen für ihre Cloud-Benutzer bereitzustellen. Angenommen, wenn die nächste Version dieser Anwendung veröffentlicht wird, muss der Cloud-Anbieter seinen Cloud-Benutzern die neueste Version bereitstellen, und dies ist praktisch möglich, weil Es ist teurer.

Um dieses Problem zu lösen, verwenden wir grundsätzlich Virtualisierungstechnologie. Durch die Verwendung der Virtualisierung werden alle Server und Softwareanwendungen, die von anderen Cloud-Anbietern benötigt werden, von Dritten gewartet, und die Cloud-Anbieter müssen das Geld monatlich oder jährlich bezahlen.

Fazit

Hauptsächlich Virtualisierung bedeutet, mehrere Betriebssysteme auf einem einzigen Computer auszuführen, aber alle Hardwareressourcen gemeinsam zu nutzen. Und es hilft uns, den Pool an IT-Ressourcen bereitzustellen, damit wir diese IT-Ressourcen gemeinsam nutzen können, um Vorteile für das Unternehmen zu erzielen.

Virtualisierung und Cloud Computing sind zwei Begriffe, die häufig austauschbar erscheinen, wenn Sie mit der Funktionsweise beider Begriffe nicht vertraut sind. Obwohl die beiden Technologien ähnlich sind, sind sie nicht dasselbe, und der Unterschied ist erheblich genug, um Ihre Geschäftsentscheidungen zu beeinflussen. Hier ist eine Anleitung, die dabei hilft, die Technologie hinter dem Jargon zu entmystifizieren.

Was ist Virtualisierung?

Virtualisierung ist die grundlegende Technologie für Cloud Computing. Diese Software trennt Computerumgebungen von physischen Infrastrukturen, sodass Sie mehrere Betriebssysteme und Anwendungen gleichzeitig auf demselben Computer ausführen können. Wenn Sie beispielsweise den größten Teil Ihrer Arbeit auf einem Mac ausführen, aber ausgewählte Anwendungen verwenden, die ausschließlich für PCs bestimmt sind, können Sie Windows auf einer virtuellen Maschine ausführen, um auf diese Anwendungen zuzugreifen, ohne den Computer wechseln zu müssen.

„Virtualisierungssoftware … ermöglicht es Unternehmen, IT-Kosten zu senken und gleichzeitig die Effizienz, Auslastung und Flexibilität ihrer vorhandenen Computerhardware zu steigern“, sagte Mike Adams, Senior Director für Produktmarketing für Cloud-Plattformen bei VMware .

Virtualisierung hat viele praktische Anwendungen. Für Softwareentwickler ermöglicht die Virtualisierung das Testen ihrer Anwendungen in verschiedenen Umgebungen, ohne dass mehrere verschiedene Computer eingerichtet werden müssen. Wenn die Anwendung auf der virtuellen Maschine abstürzt, können sie die virtuelle Maschine einfach schließen und in einem früheren Zustand neu starten, ohne den Computer zu beschädigen.

Einer der größten Vorteile der Virtualisierung ist die Serverkonsolidierung. Anstatt mehrere Server mit jeweils unterschiedlichen Funktionen zu verwalten, können Sie bei der Servervirtualisierung die Ressourcen eines einzelnen Servers für mehrere Zwecke aufteilen. Oft werden die Serverressourcen nicht ausreichend genutzt, was dazu führt, dass Unternehmen zu viel für die Serverwartung ausgeben, um eine kleine Ausgabe zu erzielen.

Wie unterscheidet sich Virtualisierung von Cloud Computing?

Virtualisierung ist Software, die Hardware manipuliert, während Cloud Computing sich auf einen Dienst bezieht, der aus dieser Manipulation resultiert. Ohne Virtualisierung ist Cloud Computing nicht möglich. [Lesen Sie den entsprechenden Artikel: Cloud Computing: Ein Leitfaden für kleine Unternehmen ]

„Virtualisierung ist ein grundlegendes Element des Cloud Computing und trägt dazu bei, den Wert des Cloud Computing zu steigern“, sagte Adams. „Cloud Computing ist die Bereitstellung von gemeinsam genutzten Computerressourcen, Software oder Daten – als Service und On-Demand über das Internet.“

Der größte Teil der Verwirrung tritt auf, weil Virtualisierung und Cloud Computing zusammenarbeiten, um verschiedene Arten von Diensten bereitzustellen. Die Cloud kann und wird in den meisten Fällen Virtualisierungsprodukte zur Bereitstellung des Computerservices enthalten, sagte Rick Philips, Vice President für Computerlösungen bei der IT-Firma Weidenhammer .

„Der Unterschied besteht darin, dass eine echte Cloud Self-Service-Funktionen, Elastizität, automatisiertes Management, Skalierbarkeit und Pay-as-you-go-Service bietet, die der Virtualisierung nicht eigen sind“, sagte er.

Was sind die Vorteile einer virtualisierten Umgebung gegenüber der Cloud?

Berücksichtigen Sie den Unterschied zwischen https://www.businessnewsdaily.com und öffentlichen Clouds, um die Vorteile der Virtualisierung besser zu verstehen  .

Eine private Cloud in einer eigenen virtualisierten Umgebung bietet Benutzern das Beste aus beiden Welten. Dies kann Benutzern mehr Kontrolle und Flexibilität bei der Verwaltung ihrer eigenen Systeme geben und gleichzeitig die Verbrauchsvorteile von Cloud Computing bieten, sagte John Livesay, Vice President und Chief Sales Officer von InfraNet .

„Private Cloud Computing bedeutet, dass der Kunde die Hardware und Software besitzt oder verleast, die das Verbrauchsmodell bereitstellt“, sagte Livesay. „Sie zahlen für Ressourcen, während Sie sie verbrauchen, von einem [Anbieter], der solche Ressourcen mehreren Kunden zur Verfügung stellt, häufig in einem Mitmieterszenario.“

Auf der anderen Seite ist eine öffentliche Cloud eine Umgebung, die vielen Benutzern offen steht und für Anforderungen mit mehreren Mandanten ausgelegt ist, so Philips. „Hier sind einige Risiken verbunden“, fügte er hinzu, z. B. schlechte Nachbarn und mögliche Leistungsverzögerungen.

Mit der Virtualisierung können Unternehmen ihr eigenes „Schloss“ warten und sichern, sagte Philips. Dies bietet mehrere Vorteile. Erstens können Sie Ihre Ressourcen maximieren, indem Sie die Anzahl der physischen Systeme reduzieren, die Sie erwerben müssen. Außerdem können Sie Ihre Server optimal nutzen, da Sie mehrere Systeme und Anwendungen auf derselben Hardware verwenden können. Wenn Sie Virtualisierung verwenden, können Sie schließlich Kosten wie Verwaltung, Verwaltung und alle damit verbundenen Anforderungen für die Verwaltung Ihrer eigenen Infrastruktur in Ihr IT-Budget integrieren.

Woher wissen Sie, ob Ihr Unternehmen eine Virtualisierungslösung benötigt?

Um festzustellen, ob Virtualisierung die beste Lösung für ein Unternehmen ist, müssen die spezifischen Anforderungen und Anforderungen des Unternehmens eingehend analysiert werden. Sie sollten auch die Kosten berücksichtigen. Wie viel Management kann und will das Unternehmen? Skalierbarkeitsanforderungen; Sicherheitsbedürfnisse; und wie viel Feature-Entwicklung erwartet werden kann, sagte Livesay.

Führen Sie für einen kleineren Betrieb, bei dem die Kosten für Rechenressourcen und Wartung gesenkt werden sollen, eine Prüfung Ihrer physischen Hardware vor Ort durch. Werden die Ressourcen Ihres Servers voll ausgeschöpft? Könnten sie die Arbeitslast eines anderen Servers übernehmen, der ebenfalls nicht ausgelastet ist? Dies könnte den Stromverbrauch und die Unterhaltskosten senken.

„Unternehmen, die mehr an einem OPEX-Modell (Betriebsausgaben) arbeiten, das weniger IT-Personal und weniger Sicherheitsbedenken hat, sind stärker auf die Cloud ausgerichtet“, sagte Livesay. „Unternehmen, die eine bessere Kontrolle für Integration und Sicherheit benötigen oder mehr an einem CAPEX-Modell arbeiten, würden sich der Virtualisierung zuwenden.“

Trotz der Tatsache, dass es über 50 Jahre alt ist, wissen die meisten Menschen nicht, worum es in diesem Studienbereich geht.

Bist du eine von ihnen?

Bei so vielen komplizierten Namen wie maschinellem Lernen , neuronalen Schaltkreisen, tiefem Lernen, prädiktiver Analyse usw. ist es völlig verständlich, dass Menschen verwirrt sind.

Aber genau das ist der Grund, warum Sie hier sind: Künstliche Intelligenz (KI) ein für alle Mal zu verstehen und wie Sie sie verwenden können, um Ihr Geschäft auszubauen.

Wann und wie es begann

Der Begriff KI wurde geboren, als eine Gruppe von Wissenschaftlern eine Studie durchführte , um Maschinen dazu zu bringen, die menschliche Sprache zu verstehen und zu verwenden und dann selbstständig weiterzumachen.

Die Studie wurde 1955 durchgeführt, aber der Begriff wurde erst ein Jahr später nach dem Erfolg der Studie offiziell erfunden.

Danach wurde es überall akzeptiert, weil es ein großes Potenzial hatte und zu einem Gebiet der Informatik wurde.

Künstliche Intelligenz definieren (KI)

Es wurde „künstliche Intelligenz“ genannt, weil eine Maschine tatsächlich als „intelligent“ angesehen werden kann, wenn sie etwas zeigt, das der menschlichen Intelligenz ähnelt.

Der Prozess beinhaltet eigentlich nichts anderes als das Programmieren von Computern auf eine neue Art und Weise, bei der riesige Datenmengen zum Trainieren verwendet werden, damit sie bestimmte Aufgaben ausführen können, die Menschen normalerweise ausführen.

Was an dieser Methode sehr interessant ist, ist, wie nützlich sie geworden ist. Es kann Aufgaben ausführen, die andere Software und Technologien nicht oder nicht ausführen können.

Welche verschiedenen Arten von KI gibt es?

Die KI hat in den letzten Jahrzehnten große Fortschritte gemacht, so dass das Feld ziemlich schnell in Unterfelder unterteilt wurde.

Obwohl nicht alle diese Bereiche ordnungsgemäß kategorisiert wurden, sind wir der Meinung, dass dies die Haupttypen sind:

Rein reaktiv

Dies ist die grundlegendste Form der KI. Diese Technologie kann eine Situation beobachten und entsprechend dem handeln, was sie sieht. Es ist nicht in der Lage zu konzipieren, und es hat kein Gedächtnis. Es konzentriert sich nur auf das Erledigen von Aufgaben.

Beispiele: IBMs Deep Blue (die Maschine, die den Schachmeister besiegt hat), Googles AlphaGo (die Maschine, die den Go-Meister besiegt hat).

Begrenzter Speicher

Dies ist die nächste Stufe von Purely Reactive. Diese KI kann Informationen sammeln, um ein Bild der Welt in ihrem Computergeist zu erstellen. Es verfügt über genügend Speicher, um kleine Aufgaben zu lernen, und kann zur Entscheidungsfindung verwendet werden.

Beispiele: automatisierte Fahrzeuge, Chatbots und digitale persönliche Assistenten.

Theorie des Geistes

Diese Art von KI verwendet komplexere Technologien. Es wird noch entwickelt und zielt darauf ab, Maschinen in die Lage zu versetzen, mit Menschen zu interagieren und sie emotional zu verstehen.

Es gibt noch keine wirklichen Beispiele, aber viele Roboter in Filmen zeigen, wie diese Art von KI funktionieren könnte – wie C-3PO und R2-D2 in Star Wars.

Selbstbewusst

Als König der Technologie bringt dies die Dinge auf die nächste Ebene. Diese Maschinen werden in der Lage sein, sozial zu interagieren, Persönlichkeiten zu entwickeln, Gefühle zu haben und Meinungen zu bilden.

Wie KI heute verwendet wird

Moderne KI wird in vielen verschiedenen Bereichen für verschiedene Zwecke eingesetzt, einschließlich Argumentation, Wissen, Planung, Lernen, Kommunikation, Wahrnehmung, Verschiebung und Manipulation von Objekten.

Obwohl es viele Projekte in verschiedenen Bereichen gegeben hat, haben einige von der Öffentlichkeit viel mehr Aufmerksamkeit erhalten. Hier sind einige der bekanntesten Beispiele:

Tiefes Blau:

1997 entwickelte IBM einen Computer, der den Schachweltmeister Gary Kasparov besiegen sollte. Diese Maschine beeindruckte die Welt, weil sie bewies, dass Maschinen Menschen bei bestimmten Aufgaben schlagen konnten.

OBEN:

2007 wurde dieses System entwickelt, um gegen Ping-Pong-Spieler anzutreten. Es verwendete automatische Lernsysteme, um sein Können weiter zu verbessern.

Das Vocaloid:

Zu Beginn des Jahrtausends wurde der erste KI-Robotersänger gebaut. Dieses System kann jedes Lied singen. Sie müssen nur die Melodie und die Texte eingeben.

Spracherkennung:

Diese Technologie begann mit Smartphones und ist eine der beliebtesten und am weitesten verbreiteten Technologien.

Höhepunkte des Tutorials

Künstliche Intelligenz (KI) ist heute zweifellos das heißeste Schlagwort und das aus allen guten Gründen. In den letzten zehn Jahren gab es mehrere Techniken und Praktiken, die bisher nur Teil der Science-Fiction waren – die sich mit dem Einsetzen der KI langsam in die Realität verwandelten. Und KI wurde wirklich zu einem Produktionsfaktor mit dem Potenzial, neue Wachstumsquellen einzuführen und die Arbeitsweise in verschiedenen Branchen zu ändern. Unser Tutorial für künstliche Intelligenz hilft Ihnen zu verstehen, was genau KI ist, welche Bedürfnisse sie hat und welche Anwendungen sie in verschiedenen Sektoren und Branchen und mehr hat. Das Hadoop-Tutorial behandelt auch verschiedene Fähigkeiten und Themen und erklärt die besten Möglichkeiten zur Implementierung von KI und ihren Anwendungsfällen. Beobachten Sie also die künstliche Intelligenz, um sich auf eine erfolgreiche Karriere in der KI vorzubereiten.

Warum künstliche Intelligenz lernen?

Künstliche Intelligenz hat mehrere Einblicke in die Zukunft gezeigt. Hier sind die Hauptvorteile des Lernens von KI:

  • KI hilft bei der Steuerung und Verarbeitung einer großen Datenmenge und liefert Erkenntnisse für zukünftige Entscheidungen.
  • KI kommt der Gesellschaft in nahezu allen Aspekten zugute, sei es im Gesundheitswesen, in der Bildung, im Transportwesen, bei der Entscheidungsfindung, bei der Cybersicherheit, in intelligenteren Häusern und an intelligenteren Arbeitsplätzen.
  • AI hilft dabei, die Benutzererfahrung für die Verwendung von Geräten und Anwendungen zu verbessern.
  • KI ist eine lukrative Berufswahl mit unbegrenztem Potenzial für die Zukunft.
  • Insgesamt wird AI optimierte Lösungen für Einzelpersonen und Unternehmen anbieten, die ihnen bei jeder Entscheidung helfen.

Anfänger müssen diese Tutorials zur künstlichen Intelligenz verwenden, um zu verstehen, wie wichtig diese Technologie ist und wie sie zum allgemeinen Fortschritt der Gesellschaft beitragen.

 

Anwendungen der künstlichen Intelligenz

Künstliche Intelligenz dringt allmählich in unsere Häuser, Büros, Arbeitsbereiche, Spielplätze, Transportmittel ein und sagt sogar Wetterphänomene voraus. Fast alle globalen Organisationen nutzen heute den Nutzen der KI-Technologie für bestimmte Interessen. KI-basierte automatisierte Maschinen werden jetzt über mehrere Branchen hinweg für komplexe Aufgaben verwendet, die mehr Präzision erfordern.

Hier sind einige der wichtigsten kommerziellen Anwendungen von KI in realen Anwendungen:

  • Im  Finanzsektor werden  Al-Algorithmen verwendet, um betrügerische und nicht betrügerische Aktivitäten zu trennen, indem das Benutzerverhalten für Ausgaben, Anmeldungen oder verdächtige Transaktionen verfolgt wird. Bei der Analyse der Aktienmärkte werden auch verschiedene Aspekte der Automatisierung verwendet, um zukünftige Trends aufzuzeigen und die Finanzen in Schach zu halten.
  • Im  Kundensupport werden  AI-Bots jetzt verwendet, um Kundenanfragen zu bearbeiten und häufig gestellte Fragen zu beantworten. Diese Bots sorgen dafür, dass Kunden mit sofortigen Antworten zufrieden sind, und eskalieren gleichzeitig die Anfragen, die mehr Aufmerksamkeit für die menschliche Interaktion erfordern.
  • In  Cyber ​​Security können kombinierte Al- und ML-Technologien jetzt die Anomalien vorhersagen und zu schützende Bedrohungen erkennen, indem sie aus früheren Bedrohungen lernen und das System sogar über zukünftige Warnungen informieren. Die meisten Unternehmen verstehen den Wert ihrer Daten und aktualisieren ihre Cybersicherheitsmaßnahmen immer mit der neuesten Technologie, um Datenverletzungen zu vermeiden.
  • In  Virtual Assistants ändert AI das Gesicht mithilfe von Spracherkennungssoftware wie Alexa, Siri, Google Voice und Cortana, um Befehle direkt von Benutzern entgegenzunehmen. Diese virtuellen Assistenten sind hochentwickelt, um aus dem Benutzerverhalten zu lernen und mehr Personalisierung für die Zukunft zu bieten.
  • Insbesondere in der  Automatisierung unterstreichen Google Driverless Cars und Teslas Autopilot die Verwendung von AI in der heutigen Zeit. Der CEO von Tesla Motors, Elon Musk, sagte sogar, dass automatisierte Fahrzeuge das Ziel der Benutzer anhand ihres früheren Verhaltens mithilfe von KI vorhersagen werden.
  • Im  Fertigungssektor werden  verschiedene Aspekte der Montage bereits von Roboterhänden beim Bau komplexer Systeme wie Elektronikwaren und Automobilen ausgeführt.
  • Die Robotik  ist ein Bereich, der vollständig aus dem Einsatz von KI hervorgegangen ist. Industrien auf der ganzen Welt forschen kontinuierlich daran, die Aktivitäten dieser automatisierten Maschinen zu verbessern. Diese Roboter können problemlos normale Aufgaben wie das Zubereiten und Bringen von Kaffee, das Erstellen komplexer Berichte, elektronische Steuergeräte usw. ausführen.

Im Jahr 2014 erwarb Google DeepMind Technologies, das eine neuronale Turingmaschine baute, mit der das menschliche Gehirn für sehr kurze Erinnerungen nachgeahmt werden kann. Anfang 2020 entwickelten Deepmind und Google ein KI-System zur Erkennung von Brustkrebs-Symptomen, die eine bemerkenswert bessere Leistung vorhersagten und zeigten als ein Team menschlicher Radiologen. Das IBM AI-System Watson ist jetzt systematisch in den medizinischen Bereich integriert, um Behandlungen vorzuschlagen und Schlussfolgerungen zu ziehen. In diesem Tutorial zur künstlichen Intelligenz werden auch einige Anwendungsfälle behandelt.

Mit regelmäßiger Forschung und Entwicklung wurden mehrere Projektionen für die Zukunft der künstlichen Intelligenz vorgeschlagen. Automatisierte Fahrzeuge, die Erweiterung des Menschen durch Roboter, intelligentere Städte, intelligentere Häuser und vieles mehr halten die Dinge für den Menschen interessant, um den Einsatz von KI weiter zu vertiefen. Dieses Tutorial für künstliche Intelligenz hilft Ihnen dabei, Schritt für Schritt zu lernen, wie Sie diese Technologie beherrschen und in Echtzeit anwenden können.

Wer sollte KI lernen?

Sie benötigen keinen speziellen Abschluss oder Masterstudiengang, um eine Karriere in der künstlichen Intelligenz zu beginnen. Das Interesse an der Entwicklung neuer Dinge und die analytische Fähigkeit zur Lösung komplexer Probleme können Fachleuten auf dem Gebiet der KI den Weg erleichtern.

Führungskräfte und Führungskräfte von heute müssen den Wert der KI verstehen, um einen Vorteil für ihre Organisation zu erzielen. Teamleiter, Projektmanager und Programmierexperten können ihre Fähigkeiten verbessern, um die KI für ihre Ergebnisse zu nutzen.

Dieses Tutorial für künstliche Intelligenz ist ideal für Spezialisten auf einem ähnlichen Gebiet der KI mit Positionen als Analytikmanager, Informationsarchitekten und andere Analytiker.

Neue Absolventen können diesen KI-Kurs auch nahtlos nutzen, um ihre Grundlagen für eine anspruchsvolle Karriere in der KI zu schaffen.

Zu den verschiedenen Profilen im Bereich der künstlichen Intelligenz gehören KI-Entwickler, KI-Architekt, Ingenieur für maschinelles Lernen, Datenwissenschaftler und Entwickler für Geschäftsintelligenz. Obwohl sich die Rolle und die Verantwortlichkeiten aus Sicht der Organisation unterscheiden können, besteht der Zweck von KI-Fachleuten darin, ein automatisiertes System aufzubauen, um richtige Entscheidungen zu treffen.

Voraussetzungen

Obwohl es keine Voraussetzungen für den Start Ihres Tutorials für künstliche Intelligenz gibt, können Sie die Lernkurve für KI besser verstehen, wenn Sie dennoch mit diskreter Mathematik, Programmier- und Datenbanksprachen, Algorithmen für maschinelles Lernen und Datenanalyse vertraut sind.

Anfänger, die sich für das Erlernen der künstlichen Intelligenz interessieren, können sich auch für einen Kurs bewerben, um frühzeitig Unterstützung zu erhalten und eine starke Karriere in diesem Bereich aufzubauen.

Insgesamt können Personen, die gerne Probleme lösen und in komplexen Situationen erfolgreich sind, künstliche Intelligenz erlernen und mit ihrer Kreativität Systeme für die Zukunft entwickeln.

Künstliche Intelligenz ist heute und aus gutem Grund ein Schlagwort in der Branche. KI oder künstliche Intelligenz haben im technologischen Bereich bereits so große Fortschritte gemacht, und laut einem Gartner-Bericht wird künstliche Intelligenz bis 2020 2,3 Millionen Arbeitsplätze schaffen und die 1,8 Millionen ersetzen, die sie beseitigen wird. Beginnen wir also mit diesem Tutorial für künstliche Intelligenz in der folgenden Reihenfolge:

  • Was ist künstliche Intelligenz?
  • Bedeutung der künstlichen Intelligenz
  • Anwendungen für künstliche Intelligenz
  • Bereiche der künstlichen Intelligenz
  • Unterschiedliche Jobprofile in AI
  • Unternehmen stellen ein

 

Was ist künstliche Intelligenz?

KI ist eine Technik, mit der Maschinen menschliches Verhalten nachahmen können. Künstliche Intelligenz ist die Theorie und Entwicklung von Computersystemen, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern, wie visuelle Wahrnehmung, Spracherkennung, Entscheidungsfindung und Übersetzung zwischen Sprachen.

Wenn Sie mich fragen, ist KI die Simulation menschlicher Intelligenz, die von von uns programmierten Maschinen durchgeführt wird. Die Maschinen müssen lernen, wie man argumentiert und sich nach Bedarf selbst korrigiert.

Künstliche Intelligenz Dies wird erreicht, indem untersucht wird, wie das menschliche Gehirn denkt, lernt, entscheidet und arbeitet, während versucht wird, ein Problem zu lösen, und anschließend die Ergebnisse dieser Studie als Grundlage für die Entwicklung intelligenter Software und Systeme verwendet werden. Lassen Sie uns dieses Tutorial für künstliche Intelligenz fortsetzen und verstehen, wie wichtig es ist.

 

Bedeutung der künstlichen Intelligenz

Künstliche Intelligenz (KI) hat es Maschinen ermöglicht, aus Erfahrungen zu lernen und zu wachsen, um menschenähnliche Aufgaben auszuführen. Viele auffällige Beispiele für künstliche Intelligenz, von denen Sie hören, wie selbstfahrende Autos , Schachspielcomputer, hängen stark von Deep Learning und der Verarbeitung natürlicher Sprachen ab . Mithilfe dieser Technologien können Computer geschult werden, um bestimmte Aufgaben zu erfüllen, indem große Datenmengen verarbeitet und Muster in den Daten erkannt werden.

Es gibt viele Bereiche, die zur künstlichen Intelligenz beitragen, nämlich:

  • Mathematik
  • Soziologie
  • Philosophie
  • Computerwissenschaften
  • Psychologie
  • NeuroScience
  • BiologieWenn wir uns die Bedeutung der künstlichen Intelligenz ansehen:
    • AI automatisiert das wiederholte Lernen und Erkennen durch Daten. Künstliche Intelligenz führt häufige, hochvolumige, computergestützte Aufgaben zuverlässig und ohne Ermüdung aus

     

    • AI erweitert vorhandene Produkte um Intelligenz . In den meisten Fällen wird AI nicht als Einzelanwendung verkauft. Produkte, die Sie bereits verwenden, werden durch KI-Funktionen verbessert, ähnlich wie Google Assistant als Funktion für eine neue Generation von Mobiltelefonen hinzugefügt wurde.

     

    • AI passt sich durch progressive Lernalgorithmen an, damit die Daten programmiert werden können. Der Algorithmus wird zum Klassifikator oder Prädiktor. So wie der Algorithmus sich selbst beibringen kann, wie man ein Spiel spielt, kann er sich selbst beibringen, welches Produkt als nächstes online zu empfehlen ist.

     

    • AI analysiert mehr und tiefere Daten mithilfe neuronaler Netze mit vielen verborgenen Schichten. Sie benötigen viele Daten, um Deep-Learning-Modelle zu trainieren, da diese direkt aus den Daten lernen. Je mehr Daten Sie ihnen zuführen können, desto genauer werden sie.

     

    • KI erreicht eine unglaubliche Genauigkeit durch tiefe neuronale Netze, was bisher unmöglich war. KI-Techniken aus Deep Learning, Bildklassifizierung und Objekterkennung können jetzt verwendet werden, um Krebs auf MRTs mit der gleichen Genauigkeit wie hochqualifizierte Radiologen zu finden.

    Lassen Sie uns nun dieses Tutorial zur künstlichen Intelligenz fortsetzen und die verschiedenen Anwendungen der künstlichen Intelligenz in der Branche verstehen.

     

    Anwendungen der künstlichen Intelligenz

    Es gibt verschiedene Anwendungen der künstlichen Intelligenz in der Industrie. Hier sind einige der wichtigsten, die in unseren täglichen Aufgaben vorhanden sind.

    • Spracherkennung
    • Maschinenübersetzung
    • Gesichtserkennung und automatische Kennzeichnung
    • Virtuelle persönliche Assistenten
      • ChatbotsSelbstfahrendes Auto

       

      Bereiche der künstlichen Intelligenz

      Künstliche Intelligenz deckt heutzutage viele Bereiche ab. Lassen Sie uns dieses Tutorial zur künstlichen Intelligenz fortsetzen und die Hauptbereiche mit umfangreichen Forschungsarbeiten diskutieren, nämlich:

      • Neuronale Netze:Neuronale Netze sind eine Klasse von Modellen in der allgemeinen Literatur zum maschinellen Lernen. Neuronale Netze sind eine Reihe spezifischer Algorithmen, die das maschinelle Lernen und die künstliche Intelligenz revolutioniert haben. 
        • Robotik:Die Robotik ist ein Zweig der KI, der sich aus verschiedenen Zweigen und der Anwendung von Robotern zusammensetzt. KI-Roboter sind künstliche Wirkstoffe, die in einer realen Umgebung wirken. Der Roboter für künstliche Intelligenz zielt darauf ab, die Objekte zu manipulieren, indem er sie wahrnimmt, auswählt, bewegt und zerstört. 
          • Expertensysteme:In der künstlichen Intelligenz ist ein Expertensystem ein Computersystem, das die Entscheidungsfähigkeit eines menschlichen Experten nachahmt. Es ist ein Computerprogramm, das Technologien der künstlichen Intelligenz (KI) verwendet, um das Urteilsvermögen und Verhalten eines Menschen oder einer Organisation zu simulieren, die über Expertenwissen und Erfahrung auf einem bestimmten Gebiet verfügen. 
            • Fuzzy-Logik-Systeme:

            Fuzzy-Logik ist ein Ansatz zur Berechnung, der auf „Wahrheitsgraden“ und nicht auf der üblichen „wahren oder falschen“ (1 oder 0) Booleschen Logik basiert, auf der der moderne Computer basiert. Fuzzy-Logik-Systeme können ungenaue, verzerrte und verrauschte Eingabeinformationen aufnehmen.

Dieses KI-Tutorial für Anfänger dient zum Erlernen der Grundlagen der künstlichen Intelligenz. In diesem Tutorial für künstliche Intelligenz für Anfänger lernen Sie verschiedene Grundlagen der künstlichen Intelligenz kennen, z. B. KI, Geschichte der KI, Arten der KI, Anwendungen der KI und weitere Konzepte zur KI.

Was ist KI?

KI (Künstliche Intelligenz) ist die Fähigkeit einer Maschine, kognitive Funktionen wie Menschen auszuführen, wie z. B. Wahrnehmen, Lernen, Denken und Lösen von Problemen. Der Maßstab für KI ist die menschliche Ebene in Bezug auf Argumentation, Sprache und Vision.

Einführung in AI Levels

  1. Schmale KI : Eine künstliche Intelligenz wird als schmal bezeichnet, wenn die Maschine eine bestimmte Aufgabe besser ausführen kann als ein Mensch. Die aktuelle Forschung der KI ist jetzt hier
  2. Allgemeine KI : Eine künstliche Intelligenz erreicht den allgemeinen Zustand, wenn sie jede intellektuelle Aufgabe mit der gleichen Genauigkeit ausführen kann wie ein Mensch
  3. Starke KI : Eine KI ist stark, wenn sie Menschen bei vielen Aufgaben schlagen kann

Heutzutage wird KI in fast allen Branchen eingesetzt, was allen Unternehmen, die KI in großem Maßstab integrieren, einen technologischen Vorsprung verschafft. Laut McKinsey hat AI das Potenzial, im Einzelhandel einen Wert von 600 Milliarden Dollar zu schaffen und im Bankgeschäft im Vergleich zu anderen Analysetechniken einen um 50 Prozent höheren Mehrwert zu erzielen. In den Bereichen Transport und Logistik liegt der potenzielle Umsatzsprung um 89 Prozent höher.

Wenn ein Unternehmen KI für sein Marketingteam verwendet, kann es konkret alltägliche und sich wiederholende Aufgaben automatisieren, sodass sich der Vertriebsmitarbeiter auf Aufgaben wie Beziehungsaufbau, Lead-Pflege usw. konzentrieren kann. Ein Firmenname Gong bietet einen Konversations-Intelligence-Service. Jedes Mal, wenn ein Vertriebsmitarbeiter einen Anruf tätigt, transkribiert und analysiert das Gerät den Chat. Der VP kann AI-Analysen und Empfehlungen verwenden, um eine Gewinnstrategie zu formulieren.

Kurz gesagt, AI bietet eine Spitzentechnologie für den Umgang mit komplexen Daten, die von einem Menschen nicht verarbeitet werden können. AI automatisiert redundante Jobs, sodass sich ein Mitarbeiter auf die Aufgaben mit hohem Mehrwert konzentrieren kann. Wenn KI in großem Maßstab implementiert wird, führt dies zu Kostensenkung und Umsatzsteigerung.

Eine kurze Geschichte der künstlichen Intelligenz

Künstliche Intelligenz ist heute ein Schlagwort, obwohl dieser Begriff nicht neu ist. 1956 beschloss eine Gruppe von Avantgarde-Experten mit unterschiedlichem Hintergrund, ein Sommerforschungsprojekt über KI zu organisieren. Vier kluge Köpfe leiteten das Projekt; John McCarthy (Dartmouth College), Marvin Minsky (Harvard University), Nathaniel Rochester (IBM) und Claude Shannon (Bell Telephone Laboratories).

Der Hauptzweck des Forschungsprojekts bestand darin, „jeden Aspekt des Lernens oder jedes andere Merkmal der Intelligenz anzugehen, das im Prinzip so genau beschrieben werden kann, dass eine Maschine hergestellt werden kann, um es zu simulieren“.

Der Vorschlag der Gipfel enthalten

  1. Automatische Computer
  2. Wie kann ein Computer so programmiert werden, dass er eine Sprache verwendet?
  3. Neuronennetze
  4. Selbstverbesserung

Es entstand die Idee, dass intelligente Computer geschaffen werden können. Eine neue Ära begann voller Hoffnung – künstliche Intelligenz.

Art der künstlichen Intelligenz

Künstliche Intelligenz kann in drei Teilbereiche unterteilt werden:

  • Künstliche Intelligenz
  • Maschinelles Lernen
  • Tiefes Lernen

    Maschinelles Lernen

    Maschinelles Lernen ist die Kunst der s tudy von Algorithmen , die lernen aus Beispielen und Erfahrungen .

    Maschinelles Lernen basiert auf der Idee basiert , dass es existieren einige Muster in den Daten , die wurden identifiziert und verwendet für zukünftige Prognosen .

    Der Unterschied zu Hardcodierungsregeln besteht darin, dass die Maschine selbst lernt, solche Regeln zu finden.

    Tiefes Lernen

    Deep Learning ist ein Teilbereich des maschinellen Lernens. Tiefes Lernen bedeutet nicht, dass die Maschine tieferes Wissen lernt. Dies bedeutet, dass die Maschine verschiedene Ebenen verwendet, um aus den Daten zu lernen. Die Tiefe des Modells wird durch die Anzahl der Ebenen im Modell dargestellt. Das Google LeNet-Modell für die Bilderkennung zählt beispielsweise 22 Ebenen.

    Beim tiefen Lernen erfolgt die Lernphase über ein neuronales Netzwerk. Ein neuronales Netzwerk ist eine Architektur, bei der die Schichten übereinander gestapelt sind.

    KI vs. maschinelles Lernen

    Die meisten unserer Smartphones, täglichen Geräte oder sogar das Internet verwenden künstliche Intelligenz. Sehr oft werden KI und maschinelles Lernen von großen Unternehmen, die ihre neuesten Innovationen vorstellen möchten, synonym verwendet. Maschinelles Lernen und KI unterscheiden sich jedoch in einigen Punkten .

    KI – Künstliche Intelligenz – ist die Wissenschaft des Trainings von Maschinen zur Ausführung menschlicher Aufgaben. Der Begriff wurde in den 1950er Jahren erfunden, als Wissenschaftler begannen zu untersuchen, wie Computer Probleme selbst lösen können.