So

Jetzt habe ich etwas gelesen an dem Buch. I fands super spannend.
Also es ging ja um Deep Learning.
Ehrlich gesagt hab ich damals meine Bachelor Arbeit über Maschinelles Lernen geschrieben, vor etwa 2 Jahren. Deswegen bin ich ja extra nach Stuttgart gegangen, weil ich unbedingt dieses Thema an einem Betrieb machen wollte - ich wollte die Arbeit nicht an der Uni schreiben, sondern an einem echten Fall arbeiten.
In Lübeck wurde ich abgelehnt, in Muc waren die zwei möglichen Stellen etwas seltsam (spießig / zu marketing-mäßig) und in Stuttgart hat alles perfekt gepasst, wie ich es wollte. Und ging sogar um eine Handy-App, was quasi mein ganz besonderes Spezial-Super-Interesse ist - das wofür mein Herz am meisten schlägt.
Ich hab mich damals richtig gut eingearbeitet und das Data Mining Buch von den Weka Leuten komplett durchgearbeitet.
Am Ende hatte ich mich besonders auf Support Vektor Regression festgelegt, da das für meinen Fall am besten gepasst hat.
Trotzdem hab ich mich schon damals auch über MLPs informiert und damit gearbeitet - ein Buch über Neuronale Netze und besonders eben MLPs hab ich damals auch schon gelesen.
irgendwie hatte ich danach trotzdem ein bisschen dieses 'Ach, das war alles?' Gefühl.
Ich hatte ein kleines Wunder erwartet.
Aber der Stand von Maschinellem Lernen ist nun mal sehr stark: Trash in, Trash Out.
Daher hab ich auch stark an meinen Daten gefeilt, mich mit Data Preprocessing auseinander gesetzt.
Es war immer so, dass man fast nur relevante Daten eingeben durfte, um ein genaues Ergebnis zu erzielen. Wenn man ALLE Attribute, auch die sinnlosen anhängte, wurden doch ein paar seltsame Schlüsse gezogen und es kam hier und da zu Abweichungen.
Ich muss dazu sagen, dass ich bisher noch nicht mit Bilderkennung gearbeitet habe, sondern ausschließlich eben anhand von Daten Schlüsse gezogen werden sollten.
Bei meiner Bachelor Arbeit ging es mehr oder weniger um Prozessoptimierung, automatische Zuordnung von Aufträgen an Mitarbeiter - mit unterschiedlichen Features wie Auslastung, 'Stammkunden', Bereich, etc.
Da hat sogar einfache Lineare Regression schon ganz gute Ergebnisse geliefert.
Hingegen bei MLPs wurden Ausreißer zu stark gewertet, Overfitting kam ins Spiel und die Ergebnisse waren etwas schlechter als letztendlich die meiner geliebten Support Vektor Regression.
Dennoch hatte ich danach - nach der Bachelor Arbeit - eben dieses Gefühl, dass man mit Support Vektor Regression eben doch nicht 'zaubern' kann. Es werden nur dann Schlüsse gezogen, wenn man es der Maschine schon sehr gut vorbereitet hinlegt.
Es fühlt sich eher nach 'Auswertung' an, nicht nach Intelligenz.
Es ist eben alles statistisch.
Trotzdem hab ich das Thema Maschinelles Lernen nie ganz aufgegeben oder aus meinen Gedanken verloren, sondern wollte immer eigtl wieder anknüpfen und nochmal damit arbeiten - in eigenen Projekten.
Ich find Weka auch ziemlich cool - die Arbeit damit macht Spaß.
Wobei man in echt - also in finalen Programmen - wohl eher Scikit Learn verwenden muss. Damit hab ich ebenfalls bereits Erfahrung gesammelt und wollte es vertiefen. Jaja.
Eines der drei Bücher, die ich über Deep Learning und Machine Learning gekauft habe, befasst sich auch mit der Scikit Learn Library. Das les ich aber noch nicht - aktuell lese ich ein etwas allgemeineres, das generell in Deep Learning einführt.
Und ich muss sagen, das was ich bis jetzt gelesen habe, klingt mega spannend und gibt mir Hoffnung, dass doch mehr möglich ist als ich an meiner bisherigen Erfahrung mit Support Vektor Regression und Ridge Regression erlebt habe.
Ich habe schon öfter von Reinforcement Learning gehört, aber es noch nie in Programme eingebaut, sondern eben nur in Büchern gelesen und war recht angetan davon - in der Theorie eben, ohne es getestet zu haben.
Ich erhoffe, dass ich hier große neue Erkenntnisse erlange und für meine neuen Projekte hoffentlich mit Scikit-Learn arbeiten kann. Mal sehen, ob ich mich richtig in MLPs und Neuronale Netze einarbeite, sodass es mir stimmig erscheint und die Ergebnisse super sind oder ob ich bei den etwas groberen Näherungen von SVMs und Linearer Regression bleibe - das ist unspektakulärer, mathematischer und weniger 'KI'-mäßig ---- aber dafür braucht es weniger Rechenzeit und klappt bei vielen Problemen mit starken Ausreißern und wenig bis mittel vielen Daten relativ zuverlässig.
Mhh.
Naja.
Ich hab mir vorgenommen, dass jetzt Feierabend ist.
Ich muss mich an sowas halten.
Das dumme ist halt, dass Informatik mein schönstes Hobby ist, ich sonst kaum Interessen habe und Home Office arbeite, sodass Freizeit und Arbeit eigtl völlig vermischt ist.
Ich glaub aber, dass das nicht so gut ist und ich wirklich Grenzen ziehen muss.
Bis hierhin Arbeit - und ab hier Freizeit.
Hey, dann schaue ich mir jetzt halt wieder nen Film an.
Ist doch ok. Besser als nächste Woche nen Burnout haben, weil ich nicht Stopp sagen kann.
Ich wollte außerdem anfangen, wieder etwas früher aufzustehen.
Seit September (also ziemlich seit ich hier schreibe und das Gefühl hab, nen Wurm in meinem Leben drin zu haben), hab ich mir angewöhnt, bis 9 Uhr zu schlafen, dann noch bis 9.15 Uhr zu trödeln und dann erst um 9.30 Uhr (wo ja oft Videochat mit meinem Hauptunternehmen ist) wirklich fertig zu sein.
Ich stell meinen Wecker ab sofort auf 8 Uhr. Und will um 8,30 Uhr am Schreibtisch sitzen.
Achja: Die Heizung geht jetzt wieder.
Und mein Wärmeunterbett hab ich auch ins Bett reingeschmissen. Ich hab auch so nen Nackenwärmer, den ich beim Arbeiten verwenden kann.
Also, ich habe heute doch nicht frieren müssen.
Ich will dieses Jahr nicht nochmal krank werden.
Nein. Nein. Nein.
Alles ist gut
