En webbskrapare som lägger upp topp 10-bloggar utan mänsklig inblandning

En av de problem vi finner med vissa projektrekommendationsinlägg är att de rekommenderar projekt som inte implementeras på ett sätt som gör att programmeraren blir sugen på att fortsätta utvecklingen. Jag ser till exempel att många rekommenderar att man bygger en webscraper.

När du väl har byggt webscrapern och skrapat data, vad ska du då göra med den?

Istället för att bara skrapa data, varför inte bygga en webbplats med dessa data. Den behöver inte vara snygg eller få många visningar. Denna skrapare skulle kunna hämta data till en databas och sedan välja ut de mest populära inläggen. Därifrån kan den kopiera titeln, tillsammans med några meningar, och sedan skapa ett inlägg som den delar med sig av på nätet. Detta skulle vara ett imponerande och enkelt projekt som du faktiskt kan visa upp.

Du har nu visat att du kan göra mer än att bara koda ett litet segment av ett system. Istället kan du tänka igenom ett helt system. Du måste fundera på hur du ska automatisera processen, hantera databasen, skapa webbplatsen och välja ut inläggen. Detta gör också att du faktiskt kan ha en konkret slutprodukt.

Och utan en konkret slutprodukt är det verkligen lätt att bli omotiverad och helt enkelt stanna vid bara en webscraper.

Det går dessutom aldrig att veta, kanske blir din webbplats populär!

Färdigheter: Databas, webscraper, automatisering, webbutveckling (för bloggen) och allmän programmering.

Ett system för varning för evenemang med hjälp av Meetup- och Eventbrite-API:er

Har du någonsin velat gå på en band- eller komikerföreställning, men insett att den var förra veckan? Kanske fanns det en gratis konferens i ditt område om datavetenskap eller big data och du missade den eftersom du glömde kolla.

Varför inte göra en egen aggregator med hjälp av Meetups och Eventbrites API:er, som varnar dig när nyckelord finns i beskrivningar eller titlar på evenemang? Jag antar att både Meetup och Eventbrite har liknande alternativ. Men det är alltid roligt att försöka bygga ett eget system.

Du kan anpassa systemet så att det fungerar som du vill, och kanske till och med låta andra människor göra egna varningar genom att göra detta till en webbplats. Det vi gillar med det här projektet är att du kan öva på att arbeta med två olika API:er. Detta kommer att göra det möjligt för dig att jämföra och avtala vad du gillar och ogillar med dem. På så sätt får du en bättre bild av vad som fungerar och vad som inte fungerar om du någon gång ska bygga ett API.

Kunskaper: API:er, databas, automatisering, webbutveckling och allmän programmering.

En 9GAG copy cat

9GAG

Du behöver inte alltid försöka uppfinna hjulet på nytt när du skapar dina egna projekt. Enkla projekt som en webbplats som låter dig logga in, lägga upp foton, GIF:er och låta dig bläddra genom ett flöde ger en möjlighet att skapa en solid baswebbplats först. Sedan kan du lägga till många intressanta funktioner som att följa, gilla och söka. Särskilt sökning skulle vara ett utmärkt tillfälle att lära sig hur rekommendationssystem och maskininlärning fungerar!

Det är alltid roligt att försöka kopiera populära webbplatser. Faktum är att det faktiskt är ett bra sätt att lära sig eftersom man måste reverse-engineera varje funktion. Reverse engineering är en bra färdighet, eftersom du som programvaruingenjör ständigt kommer att underhålla andras kod och du måste sätta dig in i deras huvuden.

Färdigheter: Maskininlärning (för rekommendationssystem), databas, automatisering, webbutveckling och allmän programmering.

Lämna ett svar

Din e-postadress kommer inte publiceras.