Annonce

Réduire
Aucune annonce.

Projet AntiPub Brouilleur de ciblage publicitaire

Réduire
X
 
  • Filtre
  • Heure
  • Afficher
Tout nettoyer
nouveaux messages

  • Projet AntiPub Brouilleur de ciblage publicitaire

    créer un logiciel qui demande un ou plusieurs mots-clés dont on se fout pertinemment et/ou que l'on n'aime pas du tout, exemple : équitation, barbie, champagne.
    le logiciel va effectuer une recherche dans Google et trouver des sites d'équitation, sur les barbies et sur le champagne.
    le logiciel va ensuite visiter le sitemap de chaque site et visiter aléatoirement quelques pages de ceux-ci.
    tout cela sera fait directement en 'sous-tâche' par le navigateur.
    les cookies seront acceptés et stockés avec plaisir.

    le résultat est triple :

    - on ne fera pas connaître nos réels centres d'intérêts à Google, Facebook, etc. Ils y perdront en crédibilité s'il s'avérait que ce type de logiciel venait à proliférer.
    - on ne nous soummettra pas à la tentation d'acheter sans cesse des choses qu'on apprécie mais dont on n'a pas besoin. Nos recherches sérieuses seront noyées dans la masse de recherches débiles.
    - on pourra se marrer en naviguant, en voyant des annonces pour des choses dont on se contrefout et en voyant Google et ses acolytes se planter sur notre profil consommateur.
    sigpic

    Cyprium Download Link

    Plus j'étudie plus j'me rends compte que je n'sais rien.

    †|

  • #2
    Moi qui ai bien envie de me remettre au C, j'avoue être tenté (si on choisit ce langage bien sur).

    fred, qu'en penses-tu ?
    D'autres personnes intéressés ? Manifestez-vous.

    HS: un autre bénéfice du système: brouiller l'historique pour madame si on a zappé la navigation privée


    Suivre Hackademics: Twitter, Google+, Facebook.

    Commentaire


    • #3
      Le C et le HTTP font pas bon ménage en général, python semble bien plus adapté.

      Commentaire


      • #4
        Damn it !
        Tant pis pour moi...

        PS: Des connaisseurs en http d'intéressés ?


        Suivre Hackademics: Twitter, Google+, Facebook.

        Commentaire


        • #5
          Perso j'aurais plus vu une extension au navigateur.

          Le problème d'un daemon est que les en têtes HTTP et autres cookies utilisés par le navigateur et celles du daemon ne seront pas les mêmes. Google pourra donc facilement faire la différence.

          Si c'est le navigateur lui même qui se met à requêter dans tous les sens, ça deviendra beaucoup plus compliqué à différencier pour notre ami Google.
          Pour terminer, remarquez que ça va manger de la bande passante pour rien. Ca n'est donc pas une solution adaptée pour les utilisateurs ayant un petit débit.

          Pour ce qui est du daemon, je plussoie le C ou le C++. Faire ça en python implique d'embarquer un interpréteur, qui est une surcharge conséquence par rapport à la petitesse des fonctionnalités du programme.

          PS: je viens de voir le " tout cela sera fait directement en 'sous-tâche' par le navigateur.", on est donc d'accord. Il y a aussi la solution des applets Java. Il suffit d'ouvrir une page vers le site qui va bien pour exécuter l'applet et commencer à requêter dans tous les sens. A la différence de python, Java est beaucoup plus répandu.
          Dernière modification par TorTukiTu, 15 août 2014, 11h51.
          OxyGen Software
          Sécurité, développement, formations, informatique biomédicale
          [email protected]

          Commentaire


          • #6
            Perso j'aurais plus vu une extension au navigateur.
            C'est en effet à cela qu'on a pensé avec _47, ça peut se mettre en place tout aussi bien avec python.

            via google, plugin firefox python, tu auras des résultats

            Commentaire


            • #7
              Effectivement, c'est possible, mais ça fait embarquer un interpréteur python. Donc ça ne règle pas le problème: ça me parait assez lourd pour le peu de fonctionnalités que le soft doit avoir.

              Qui plus est, en passant par une applet Java, pas besoin d'installer d'outil supplémentaire (en admettant que 90% des postes soient déjà équipés). Pour finir, il sera beaucoup plus facile d'adapter le code vers les plates-formes mobiles comme android en utilisant Java au lieu de Python.

              Après, il faut voir que c'est aussi un problème de compétences dans le langage retenu. Si plus de gens font du python ici que du Java (ce que je suppose), python semble un meilleur choix.
              OxyGen Software
              Sécurité, développement, formations, informatique biomédicale
              [email protected]

              Commentaire


              • #8
                Bon, j'ai déposé l'idée comme ça, j'avais pas fait de recherche (et n'en ai toujours pas fait) et suis assez étonné que (apparemment) ça n'existe pas.

                Attention, quand je parle de requêtes, je ne parle pas de 10 000 requêtes par jour, hein.

                Ce serait un ratio respectant la navigation habituelle. En supposant qu'une personne lambda visite 50 pages par jour, je pense (ceci est une supposition, à backtester !) qu'une navigation supplémentaire de 200 pages serait suffisant pour brouiller le profil consommateur. Soit un ratio de 0.25 (à bien régler en fonction : du temps de chargement pour une connection de débit "moyenne basse" (faut se renseigner, c'est peut-être 1Go en down maintenant, pour la moyenne basse, ce qui est quand même fort conséquent quand on compare à avant^^ Olitec 56K bonjour^^). Faut aussi déterminer le nombre de sites (optimal) à visiter pour un profil donné. Toujours en se basant sur un internaute type qui visite 50 pages en moyenne par jour, et que le programme lui en fasse visiter 200 supplémentaires, il faudrait que les 200 visitent (par exemple) 20 sites (à déterminer). ET enfin pour finir, il faut aussi déterminer, sur ces 20 sites, combien de pages par site doivent être visitées. La logique voudrait bien évidemment que ce soit 10 mais... Et si un des 10 sites ne contient que 5 pages ? Et puis... il y a des grosses différences entre des "vrais" gros sites à fort PageRank et des petits sites à peine référencés par Google. J'entends par là que, déjà, le gros site aura installé un tracker Google Analytics, paiera du AdWords, etc. Bref, y'aura des annonces derrière c'est sûr. Tandis qu'un site from scratch (fait à la main, ex nihilo) n'aurait pas forcément de cookies, de matière à influencer Google. Donc, a priori, il faudrait que le nombre de page visitées par le programme sur un seul site soit en fonction du PageRank de celui-ci. Après, je pense que le plus simple soit que le programme lance, une fois la saisie des mots-clés par l'utilisateur (ex: caniche nain) effectuée, une requête Google pour obtenir une liste des 5-10 premiers sites (en fonction de la navigation moyenne, elle aussi renseignée par l'utilisateur) relatifs à ses mots-clés. S'ils sont en première page, y'a de forte chance pour que les sites soient à fort PageRank et que ça influence Google. Après, on peut aussi faire en sorte que le programme aille directement effectuer des recherche dans des très gros sites : je pense notamment à YouTube, Amazon, Ebay. Dans Amazon, faire des recherches sur les "tracteurs d'occasion" doit avoir une influence sur le comportement des suggestions publicitaires. Sinon, je pense que renseigner des recherches pertinentes à l'utilisateur serait pas mal. En effet, il est beaucoup plus sûr de rapidement choper des publicités pour une "tondeuse à gazon" (qui définit vraiment un fort potentiel d'achat pour les annonceurs, a priori, quand on rentre ça dans Google, c'est qu'on compte en acheter une, pas qu'on regarde ça parce que c'est joli) que pour des choses plus tendancielles ou vagues comme "maria sharapova nue", "licorne", "sex toy", "walter ppk", etc. toutes ces choses que les gens seraient attirés par mettre pour "faire les cons" mais qui ne seront pas pris en compte par Google.

                Enfin bref... Encore une fois, je pose ça là, c'est... pas très propre, c'est confus, je réfléchis en même temps que j'écris, j'ai pas plus réfléchi à la question que ça en fait, ça m'a juste traversé l'esprit et là je suis entrain d'approfondir, c'est tout.

                Pour ce qui est des solutions techniques, un daemon sous forme d'extension à 1 navigateur (au début, 1, ça suffit, par exemple FF) écrit en C++ me paraît cohérent. Je suis pas à fond derrière le python pour ce coup là. Après, y'a pas besoin d'être 50 dessus, de recruter une team d'assassins en c++, ça va, c'est un mini soft, tout bidon, ultra-léger, faudra juste essayer de fair en sorte qu'il ne pompe pas trop de ressources utilisateur.

                Pour info, ça me botte de participer à l'élaboration du code. D'habitude je prend en charge que les specs, la gestion du projet, mais là je trouve l'idée marrante donc autant se marrer jusqu'au bout Ca sera pas aussi propre qu'un dév pro mais je m'en fous, je ne vois pas d'inconvénient à ce qu'on repasse derrière moi

                Donc, bon, si t'es chaud fred... on pourra s'amuser un peu (dans la limite de nos dispo bien entendu, rien ne presse à la seconde^^).

                Voici un peu de doc qui pourrait être utile https://developer.mozilla.org/en-US/...ing_components

                Si t'es chaud mais que tu parles pas anglais je te ferai un petit résumé en français

                Le point positif de ce truc : ça me fait marrer. C'est l'essentiel quelque part, non ?^^
                Le point négatif : va falloir faire une GUI. Mais on peut rendre ça fun en la faisant biiiiien moche
                sigpic

                Cyprium Download Link

                Plus j'étudie plus j'me rends compte que je n'sais rien.

                †|

                Commentaire


                • #9
                  Comme je l'ai déjà dis à _47, il faut un big boss en HTTP, j'y connais réellement pas grand chose. Il faut donc un meneur de projet, un qui sera construire le projet du début jusqu'à la fin, le langage n'étant qu'une traduction du boulot.

                  Commentaire


                  • #10
                    https://developer.mozilla.org/en-US/Add-ons/Plugins
                    https://developer.mozilla.org/fr/doc..._une_extension
                    http://www.iosart.com/firefox/xpcom/
                    https://developer.mozilla.org/en-US/...a_Build_System
                    http://rcrowley.org/2007/07/17/cross...m-a-howto.html (cross platform)

                    éventuellement utiliser le framework firebreath via NPAPI

                    http://www.firebreath.org/display/do...ireBreath+Home

                    enfin bon, qu'est-ce que tu entends par "big boss en http" ?
                    t'entends par là des connaissances en XUL, JS + XPCOM & Gecko 2.0 ???
                    jette un rapide coup d'oeil aux sources ci-dessus et dis-moi ce que tu captes pas.

                    après attention, bien que ce soit très très bien documenté (très nombreux tutoriels très bien rédigés, complets), il est clair que c'est "un univers". les "mozdev" (développeurs mozilla) connaissent bien la structure de FF et c'est quelque-chose de particulier (comme pour tout). j'en avais personnellement aucune idée jusqu'à-ce que je mette un peu le nez dedans. apparemment, ça requiert un peu d'étude du sujet, mais y'a rien de bien méchant, ça reste de l'informatique tout s'apprend

                    après il est vrai que s'il y avait un mozdev sur hk, il pourrait apporter son expertise, ce qui accélérerait grandement le processus !

                    enfin, moi perso je suis pas pressé, je me dis juste que c'est une idée marrante qui n'a pas de deadline particulière.

                    le gros du travail est clairement dans l'apprentissage de l'univers mozilla (c'est intéressant en même temps !), pas dans le développement de code lui-même, que ce soit le c++, le js ou le xml.

                    donc bon, je peux toujours lancer un appel : y'a-t-il un mozdev dans l'avion ?^^
                    sigpic

                    Cyprium Download Link

                    Plus j'étudie plus j'me rends compte que je n'sais rien.

                    †|

                    Commentaire


                    • #11
                      t'entends par là des connaissances en XUL, JS + XPCOM & Gecko 2.0 ???
                      Oui, je n'ai jamais mis les pieds là dedans, et les tutoriels que j'ai pu lire sont loin d'être simples...

                      Maintenant si je devais m'impliquer là dedans, j'aimerais m'exclure tout le travail avant d'attaquer le code, pour cela il faut un expérimenté dans ce domaine ou quelqu'un ayant déjà testé, si possible sur Unix et ayant réussi après installation de Gecko et mise en place de Xulrunner

                      Commentaire


                      • #12
                        Assurément, toi tu pourrais, si intéressé (et si tu as le temps) jeter un oeil au C++. That's all. Après, concernant l'environnement web, je pensais que ça aurait pu t'intéresser un peu (t'ouvrir un peu au web) mais si ce n'est pas le cas tant pis, le projet ne requiert en aucun cas ton investissement dans cette partie.
                        sigpic

                        Cyprium Download Link

                        Plus j'étudie plus j'me rends compte que je n'sais rien.

                        †|

                        Commentaire

                        Chargement...
                        X