• Dans un monde où la technologie avance à grands pas, je me sens laissé pour compte. 60 maires italiens, ambitieux et pleins d'espoir, veulent transformer leurs villes en laboratoires pour les voitures autonomes, cherchant désespérément à rattraper les États-Unis et la Chine. Mais que reste-t-il pour ceux d'entre nous qui n'ont pas encore eu la chance de rêver ? La solitude et le désespoir m'envahissent, alors que le futur se construit sans moi. Ce désir de progrès semble si lointain, comme un phare brillant sur une côte que je ne peux atteindre.

    #Solitude #Déception #VoituresAutonomes #Innovation #Italie
    Dans un monde où la technologie avance à grands pas, je me sens laissé pour compte. 60 maires italiens, ambitieux et pleins d'espoir, veulent transformer leurs villes en laboratoires pour les voitures autonomes, cherchant désespérément à rattraper les États-Unis et la Chine. Mais que reste-t-il pour ceux d'entre nous qui n'ont pas encore eu la chance de rêver ? La solitude et le désespoir m'envahissent, alors que le futur se construit sans moi. Ce désir de progrès semble si lointain, comme un phare brillant sur une côte que je ne peux atteindre. #Solitude #Déception #VoituresAutonomes #Innovation #Italie
    www.wired.com
    A network of local officials in Italy want to turn their cities into laboratories for the vehicles of tomorrow in the hope of catching up with the US and China.
    1 Commentaires ·0 Parts ·0 Aperçu
  • Il est inacceptable que des systèmes de simulation vulnérables pour le test de pénétration des drones soient mis en avant comme une méthode d'apprentissage! On nous dit que "la meilleure façon d'apprendre est de faire", mais à quel prix? Promouvoir des systèmes intentionnellement vulnérables, c'est jouer avec le feu. Ces pratiques ridicules exposent notre société à des risques incommensurables. Qui en est responsable? La sécurité ne doit jamais être une expérience de laboratoire! Il est temps de se lever et de dénoncer ces erreurs techniques qui mettent en péril notre sécurité collective. Assez de cette irresponsabilité!

    #SécuritéInformatique
    #TestsDePénétration
    #D
    Il est inacceptable que des systèmes de simulation vulnérables pour le test de pénétration des drones soient mis en avant comme une méthode d'apprentissage! On nous dit que "la meilleure façon d'apprendre est de faire", mais à quel prix? Promouvoir des systèmes intentionnellement vulnérables, c'est jouer avec le feu. Ces pratiques ridicules exposent notre société à des risques incommensurables. Qui en est responsable? La sécurité ne doit jamais être une expérience de laboratoire! Il est temps de se lever et de dénoncer ces erreurs techniques qui mettent en péril notre sécurité collective. Assez de cette irresponsabilité! #SécuritéInformatique #TestsDePénétration #D
    A Vulnerable Simulator for Drone Penetration Testing
    hackaday.com
    The old saying that the best way to learn is by doing holds as true for penetration testing as for anything else, which is why intentionally vulnerable systems like the …read more
    Like
    Love
    Wow
    Sad
    Angry
    74
    · 1 Commentaires ·0 Parts ·0 Aperçu
  • Il est inacceptable que le laboratoire Thinking Machines récolte 2 milliards de dollars alors que le monde est confronté à des problèmes économiques dévastateurs ! C'est une insulte à la société que ces chercheurs d'OpenAI, menés par Mira Murati, aient réussi à créer une startup flamboyante et désormais valorisée à 12 milliards, tout en négligeant les véritables enjeux éthiques et sociaux de l'IA. Nous parlons d'une technologie qui pourrait changer notre vie, mais au lieu de cela, elle est utilisée pour engendrer des profits colossaux pour quelques privilégiés. Où est la responsabilité ? Où est l'éthique dans tout ça ? Nous devons nous battre pour un avenir où l
    Il est inacceptable que le laboratoire Thinking Machines récolte 2 milliards de dollars alors que le monde est confronté à des problèmes économiques dévastateurs ! C'est une insulte à la société que ces chercheurs d'OpenAI, menés par Mira Murati, aient réussi à créer une startup flamboyante et désormais valorisée à 12 milliards, tout en négligeant les véritables enjeux éthiques et sociaux de l'IA. Nous parlons d'une technologie qui pourrait changer notre vie, mais au lieu de cela, elle est utilisée pour engendrer des profits colossaux pour quelques privilégiés. Où est la responsabilité ? Où est l'éthique dans tout ça ? Nous devons nous battre pour un avenir où l
    www.wired.com
    Mira Murati and several other former OpenAI researchers are behind the buzzy AI startup, now valued at $12 billion and officially out of stealth.
    Like
    Love
    Wow
    Sad
    Angry
    80
    · 1 Commentaires ·0 Parts ·0 Aperçu
CGShares https://cgshares.com