En poursuivant votre navigation sur ce site, vous acceptez nos CGU et l'utilisation de cookies afin de réaliser des statistiques d'audiences et vous proposer une navigation optimale, la possibilité de partager des contenus sur des réseaux sociaux ainsi que des services et offres adaptés à vos centres d'intérêts.
Pour en savoir plus et paramétrer les cookies...

L'industrie du disque nie le fiasco des solutions de filtrage

L'industrie du disque nie le fiasco des solutions de filtrage
 

Certains sites se font l'écho des mauvais résultats de tests menés sur le filtrage des réseaux P2P. Les maisons de disques démentent.

A voir aussi

Votre opinion

Postez un commentaire

21 opinions
  • ikariya
    ikariya     

    c'est juste un concept que je decris, pour simplement montrer que la technique n'est pas un obstacle.

    On peut toutefois imaginer qu'une autorité indépendante aurait la charge de comptabiliser ça proprement.

    De la meme façon que les serveurs centraux s'assureraient que seuls des fichiers repertoriés peuvent être échangés il suffirait qu'il puisse verifier que les téléchageurs sont bien qui ils sont par un sytème de signatures numériques. Encore une fois la technique permet tout ça.

    Mais enfin, si les majors preferent engloutir des millions dans des solutions de filtrage inopérantes qu'ils le fassent, quand plus personne n'achetera des disques devenus bien trop chers à cause du cout du filtrage, et bien ils couleront pour de bon et on repartira sur un bon pied.

    Il y a quelques mois il etait hors de question d'abandonner les DRM et maintenant tous les abandonnent ... il y a quelques mois il etait hors de question de laisser le libre streaming et on voit que sur last.fm ça génère des augmentations sensibles de vente ... Pour l'instant la licence globale est hors de question ça n'empeche pas qu'on entend ici ou la que des réunions de travail se tiennent sur une adaptation de la licence globale ....

    bref, ils ne veulent pas y aller mais de toute façon ils n'auront pas le choix. Et quand vraiment ils n'auront plus assez de clients pour assurer leur train de vie et bien ils y viendront.

  • la dernière phrase
    la dernière phrase     

    "[...]afin que télécharger sur les protocoles peer to peer ne soit pas plus confortable que d'acheter de la musique sur un site légal"
    Juste cette phrase démontre l'incompréhension (la nullité ?) des sociétés/organismes comme le SNEP.
    Au contraire, acheter de la musique sur un site légal devrait être aussi, voir plus confortable que la télécharger via le p2p.
    S'ils ne s'aperçoivent pas de ça très vite, ils sont morts.

    Ça ne fera sans doute pas de mal au marché.

  • blackhole1989
    blackhole1989     

    L'idée de répartir les sommes récoltées en fonction du nombre de titres téléchargés n'est valables que si tout le monde joue le jeu... Imaginez qu'un major du disque télécharge des centaines de milliers de fois le titre de son artiste le plus en vogue juste pour faire de fric... La partage sera complètement faussé.

  • momoxrace+
    momoxrace+     

    Comme presque tout a un copyright, ils sont en train de dépenser des millions pour ça car ils croient que parce qu'on ne peut plus télécharger, on va acheter. 'Faut pas rêver les majors ! Ils n'ont qu'à passer à la licence globale, ce serait déjà réglé depuis un bout de temps.

  • Laurent Biel
    Laurent Biel     

    J'ajouterais même pour être en rapport avec le titre que le juste prix d'un album complet se situe autour de 2$.
    C'est le prix qu'on paye sur certains sites russes de musique actuellement.

  • Antoine Montagne
    Antoine Montagne     

    je diras même que l'on peut parler de "trous noirs" moi qui suis un très grand fan des années 80, je suis atterré de voir que cette décennie est quasiment absente des rayons des disquaires, a part les compils a 2 francs/6 sous avec les plus commerciaux merdique ... super ...

  • obc
    obc     

    > je donne plus d'importance à la vitesse d'affichage d'une page Web ou de récupération de mes emails, qu'au temps de télé-chargement en P2P de l'image ISO de la dernière Gentoo

    Le problème principal de tout ceci c'est que TCP/IP a été conçu au départ pour des liaisons symétriques, OR les liaisons ADSL et câbles ou fibres ne le sont plus, pour des raisons aussi bien technique que politiques.
    (Passage d'un modèle d'échange à un modèle de consommation passive, comme la TV)

    Ce qu'il faut,ce n'est pas du filtrage, c'est de la QoS (Qualité de Service).
    Le but est effectivement de ralentir le trafic "non interactif" (téléchargements, entre autre).
    Le meilleur endroit pour faire cela c'est sur les Box ADSL ou câble, à la rigueur au niveau du DSLAM (mais c'est plus de charge de travail pour ce dernier).

    Le principe est d'avoir une "file d'attente de paquets au départ" dans modem ADSL.
    Les gros paquets des protocoles P2P s'empilent, MAIS on autorise certains protocoles à passer devant, comme la voix sur IP, le mail, le web, le chat, les terminaux (SSH / Telnet), les accusés de réception, les ouvertures de connections, et en général tout les petits paquets qui prendront peu de temps à être envoyés.
    On peux définir plusieurs niveaux de priorité.
    Ca permet de bien améliorer la connection, mais c'est pas facile à bien régler... Et ça dépend de l'usage de chacun.

    Au niveau des FAI, je ne verrais pas d'inconvénients à faire ça également, a condition de ne se baser QUE sur la taille des paquets et leur finalité plutôt que sur le protocole lui-même, car c'est voué à l'échec dès qu'il y a de l'encryptage en jeu.
    De toute façon, il y a bien un problème purement technique de bande passante à résoudre.

    Le GROS risque, c'est si le filtrage deviens:
    On ne laisse RIEN passer sauf ce que l'on peux décoder (et donc logguer)
    CA, ca serais terrible.

  • lolo25678
    lolo25678     

    J'ai lu le compte rendu de Internet Evolution et je ne suis pas vraiment d'accord avec votre interprétation.

    Premièrement, il n'est fait aucune allusion à des données illicites, puisque ce sont des systèmes de filtrage de PROTOCOLE, et non de contenu! Ils se moquent de savoir si c'est un ISO d'une distribution de Linux (donc légal) ou l'archive des MP3 du dernier album d'un artiste quelconque (et donc illégal).

    Ensuite, les résultats publiés sont plutôt impressionnants (je ne m'attendais certainement pas à de telles performances) pour les deux cités (les résultats des autres devaient être affligeants, pour qu'ils aient refusés d'être publiés, lorsqu'ils avaient accepté de participer...) et ce même pour des protocoles cryptés, même si les résultats sont moins brillants, voire mauvais dans certains cas.

    En conclusion, bien que ces systèmes de filtrage et de régulation soit utiles (je donne plus d'importance à la vitesse d'affichage d'une page Web ou de récupération de mes emails, qu'au temps de télé-chargement en P2P de l'image ISO de la dernière Gentoo), il est à déplorer que les pressions des industries de la musique et du cinéma fassent adopter ces systèmes pour des raisons de filtrage de contenu (ce qu'ils ne peuvent pas faire) et donc forcent à limiter toutes les connexions P2P, qu'elles soient légales ou pas.
    Il existe des méthodes efficaces pour contrôler et réprimer le télé-chargement illégal, mais celles-ci nécessitent des dépenses du côte des industriels alors que le filtrage déplace ces dépenses du côté des FAIs...

  • ikariya
    ikariya     

    En meme temps c'est un faux problème que les majors n'hésitent pas à mettre en avant pour ne pas discuter de la licence globale. Je m'explique.

    On peut tres bien imaginer que l'abonnement, s'accompagne d'un acces à une sorte de réseau P2P "officiel", transitant par des serveurs de référence, ou tout le monde puisse télécharger et partager ce qu'il possède, le tout couplé à une base de données de hash gérée par un organisme type sacem qui se charge de répartir les cotisations en fonction des titres transférés.

    Ca me semble tout sauf compliqué, en tout cas moins que d'aller verifier les listings des radios qui passent tel ou tel morceau.

    Il suffirait que les serveurs de référence empèchent le partage de fichiers dont le hash ne correspont pas aux fichiers mis a disposition

    Qui, ayant payé sa cotisation, craindrait de se savoir espionné ou se faire prendre ? personne puisque ce serait légal !

    C'est une idée comme une autre mais il me semble que la technique n'est pas un frein dans ce cas.

  • Gourmet
    Gourmet     

    L'expression "démarche scientifique" fait tâche dans le bec de la SNEP. Assurément cette expression n'est pas d'eux mais plutôt d'un de leur conseiller obscur.
    Quoi qu'il en soit, le ou les outils permettant un filtrage quasi-sûr des protocoles en clair (inutile d'espérer quoi que ce soit des protocoles utilisant le chiffrement à moins de pénaliser tout le monde) couteront TRES cher ! Et deviner qui va payer la facture ?
    db

Lire la suite des opinions (21)

Votre réponse
Postez un commentaire