Beschreibung
Ein Crawler und Datenanalyse Projekt soll realisiert werden.Dabei sollen Internetseiten gespydert werden und nach gewissen Systematiken analysiert werden.
Anforderungen:
Konzeptionierung und Umsetzung von Front- und Backend
Verwaltung großer Datenmengen
Erstellung des threadfähigen Crawlers
Erfahrungen mit Proxy und Gateway Systemen
Ihr Profil
Ein abgeschlossenes Studium im zum Projekt affinen Bereich
Hervorragende Kenntnisse in objektorientierter PHP5-Programmierung
Umfangreiche Erfahrung mit MySQL oder PostgreSQL
Umfangreiche Erfahrung in der Optimierung von Datenbank-Abfragen
Erfahrung im Umgang mit Frameworks und Template-Engines
Gute Kenntnisse in JavaScript (jQuery)
Umfangreiche Erfahrung mit Frameworks zur Nutzung von Computerclustern.
Bewerbungen bitte an