Photo de couverture du profil
Vous suivez désormais
Erreur de suivi de l'utilisateur.
Cet utilisateur n'utilise pas les utilisateurs à le suivre.
Vous suivez déjà cet utilisateur.
Votre plan d'adhésion ne permet que 0 suivis. Améliorez ici.
Ne suit désormais plus
Erreur lors de l'arrêt du suivi de l'utilisateur.
Vous avez désormais recommandé
Erreur lors de la recommendation de l'utilisateur.
Une erreur a eu lieu. Veuillez rafraîchir la page et réessayer.
E-mail désormais vérifié.
Avatar de l'utilisateur
$50 USD / heure
Drapeau de PAKISTAN
lahore, pakistan
$50 USD / heure
Il est actuellement 2:22 PM ici
Rejoint le décembre 23, 2014
0 Recommandations

Awaish K.

@AwaishRathi

5,0 (1 commentaire)
0,0
0,0
100%
100%
$50 USD / heure
Drapeau de PAKISTAN
lahore, pakistan
$50 USD / heure
100 %
Travaux complétés
100 %
Suivant le budget
100 %
Dans les temps
N/A
Taux de réembauche

Software Engineer

I am a data engineer consultant with 4+ years hands-on experience of getting things done. My core competence is delivering quality software components with a focus on clean, readable code, accompanied by a set of tests and a detailed documentation. I can help you with: ✔️Architecting and developing data processing solutions at scale ✔️Resolving particular data processing problems ✔️Implementing cloud computing transitions Send me a message to discuss how we can work together.

Contactez Awaish K. concernant votre travail

Connectez-vous pour discuter de tous les détails via la messagerie.

Commentaires

Modifications enregistrées
Montre1 - 1 sur 1 commentaires
Filtrer les commentaires par :
5,0
$5 500 CLP
Deliver exactly what I asked.
Python
Scrapy
R
Drapeau de Roberto M.
@rmir3
il y a 6 ans

Expérience

Software Engineer

OYO Vacation Homes
janv. 2020 - Jusqu'à présent
1. Managing whole scraping system and responsible for continue improving workflow ○ writing new python scripts for web ○ maintaining currently running scrapers (for continue getting quality data) ○ building middlewares ○ proxy management (to fully and accurately utilize proxies) 2. Building Database (postgres) ○ decide and create new tables schema ○ loading data scraped by scrapers 3. Cleansing of data ○ writing queries to clean data in tables after storage 4. Analysis ○ pricing comparisons

Senior Software Developer (Remote)

Danamica ApS, Denmark
janv. 2019 - janv. 2020 (1 an)
1. Managing whole scraping system and responsible for continue improving workflow ○ writing new python scripts for web ○ maintaining currently running scrapers (for continue getting quality data) ○ building middlewares ○ proxy management (to fully and accurately utilize proxies) 2. Building Database (postgres) ○ decide and create new tables schema ○ loading data scraped by scrapers 3. Cleansing of data ○ writing queries to clean data in tables after storage 4. Analysis ○ pricing comparisons

Software Engineer

Arbisoft
juil. 2017 - janv. 2019 (1 an, 6 mois)
I am responsible to build the scrapy spiders to scrap the websites and fix those with changing structure of websites, fix captcha issues, also maintain a website to keep track of all crawlers(good/bad/broken/blocked).

Éducation

Bachelor of Science

National University of Computer and Emerging Sciences, Pakistan 2013 - 2017
(4 ans)

Contactez Awaish K. concernant votre travail

Connectez-vous pour discuter de tous les détails via la messagerie.

Vérifications

Freelance préféré
Identité vérifiée
Paiement vérifié
Téléphone vérifié
E-mail vérifié
Connecté à Facebook

Parcourir les présentations similaires

Utilisateur précédent Utilisateur suivant
Invitation désormais envoyée !
Merci ! Nous vous avons envoyé un lien par e-mail afin de réclamer votre crédit gratuit.
Une erreur a eu lieu lors de l'envoi de votre e-mail. Veuillez réessayer.
Utilisateurs enregistrés Total des travaux publiés
Freelancer ® is a registered Trademark of Freelancer Technology Pty Limited (ACN 142 189 759)
Copyright © 2024 Freelancer Technology Pty Limited (ACN 142 189 759)
Chargement de l'aperçu
Permission donnée pour la géolocalisation.
Votre session de connexion a expiré et vous avez été déconnecté. Veuillez vous connecter à nouveau.