Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

September 25 2013

Eric Hazan : vingt ans de faux semblants

Eric Hazan : vingt ans de faux semblants

http://blogs.mediapart.fr/edition/accords-doslo-20-ans-apres/article/240913/eric-hazan-vingt-ans-de-faux-semblants

Accès payant

Le treize septembre 2013 marque les 20 ans du processus d’Oslo. Il nous a semblé que cela devrait être l’occasion d’une véritable réflexion politique non seulement sur le bilan de ces vingt longues années, mais aussi sur les différentes perspectives d’avenir que l’échec des promesses de ce processus ouvre pour la région.

Nous avons demandé a plusieurs personnalités de contribuer par leur analyse à ce petit brainstorming.

L’Agence Média Palestine, en partenariat avec l’Alternative information Center, publiera ces tribunes durant ce mois, sur l’espace club de Médiapart.

–--------------------------

Par Eric Hazan, éditeur aux éditions "La Fabrique"et écrivain

Depuis les accords d’Oslo, de poignées de mains en protocoles divers, de tournées d’émissaires américains en « reprises du processus de paix », ce qui domine la relation Israël-Palestine, c’est l’hypocrisie généralisée.

Israël #palestine #accord_oslo

September 24 2013

Norway's new government may bar oil firms from Arctic islands | Reuters

Norway’s new government may bar oil firms from Arctic islands | Reuters

http://www.reuters.com/article/2013/09/13/norway-oil-govt-idUSL5N0H90AB20130913

OSLO, Sept 13 | Fri Sep 13, 2013 2:10am EDT

(Reuters) - Norway’s incoming ruling parties plan to keep the Arctic Lofoten islands closed to the oil industry in hopes of winning over two smaller parties for their ruling coalition, daily newspaper Aftenposten said on Friday, citing sources close to the parties’ leadership.

#norvège #élections #énergie #Lofoten #pétrole

September 13 2013

Oslo, 20 ans après : il n'y a jamais eu de processus de paix

Oslo, 20 ans après : il n’y a jamais eu de processus de paix
http://blogs.mediapart.fr/edition/les-invites-de-mediapart/article/120913/oslo-20-ans-apres-il-n-y-jamais-eu-de-processus-de-paix

La thèse défendue ici est que la faillite du Processus d’Oslo n’est pas liée à un incident de parcours ou à une mauvaise application des accords signés entre les deux parties. Cette faillite était en réalité inscrite dans l’esprit et la lettre des Accords d’Oslo, qui n’ont pas constitué une rupture avec les logiques à l’œuvre dans les territoires palestiniens au cours des décennies précédentes et qui n’ont pas ouvert un quelconque “ processus de paix ”. Ce à quoi nous avons assisté est en réalité une (...)

Tags: City:Oslo

September 06 2013

*Nous sommes sans doute la dernière génération à vivre avant l'utilisation réelle des « robots…

Nous sommes sans doute la dernière génération à vivre avant l’utilisation réelle des « robots tueurs » sur le terrain

"Les opérateurs voient quatre hommes barbus (sic) avec des fusils sur l’épaule..."

Alexander Harang du « Conseil pour la paix » est très actif dans la lutte contre les robots tueur. La grande photo représente le drone « Predator » lequel est équipé de missiles air-sol : c’est celui qui est utilisé au Pakistan.

http://gfx.nrk.no/r0b7uwNHnkGNCjb0KABLggWnRhibgNu7JYAEdaLb8CKQ.jpg

- D’ici dix à vingt ans, les « robots tueurs » seront utilisés sur les champs de bataille, dit Alexander Harang. Tobias Malher et Alexander Harang ont participé cette semaine à un séminaire sur les « robots tueurs » à l’institut PRIO à Oslo.

« Robots militaires » : c’est le nom commun donnés aux armes qui non seulement peuvent tuer à distance - comme les drones d’aujourd’hui - mais aussi prendre la décision lui même de tuer – et de le faire !

Trois types de Robots :

Robots téléguidées : Ils sont armés (comme les drones aujourd’hui), mais ce sont des êtres humains qui analysent la situation et décide si l’arme doit être utilisée.

Robots automatiques : L’ordinateur analyse la situation et les réponses possibles, mais ce sont toujours les êtres humains gens qui décident si l’arme doit être utilisée.

Robot autonome : L’ordinateur analyse de la situation et les réponses possibles, et décide de lui même si l’arme doit être utilisée. (brrrr....)

Le journaliste de la NRK décrit l’utilisation du drone de la manière suivante (c’est assez époustouflant) :

Un drone survole une zone montagneuse au Pakistan et observe ce qui se passe au sol. Les caméras embarquées renvoient les images aux Etats-Unis où des opérateurs les analysent. Les opérateurs voient quatre hommes barbus (sic) avec des fusils sur l’épaule. Les opérateurs décident d’appuyer sur un bouton, une seconde plus tard un missile est tiré, les quatres hommes barbus (sic) sont morts instantanément.

Ainsi va la vie aujourd’hui au Pakistan, en Afghanistian , au Yémen ,en Somalie et peut-être plus récemment dans le nord du Niger [et du Mali]. Dans les seules zones tribales pakistanaises frontalières de l’Afghanistan, plus de 3 500 personnes ont été tuées dans les attaques de drones depuis une decennie.

La plupart d’entre eux étaient des militants musulmans (sic), dont certains étaient sur ​​la liste des terroristes établie par la CIA, mais plusieurs centaines d’autres étaient des civils innocents qui se trouvaient au mauvais endroit au mauvais moment.

Mais dans quelques années, l’opérateur qui se trouve quelque part aux États-Unis sera sans doute superflu. L’image des quatre hommes armés sera envoyé directement au drone. Un ordinateur de bord permettra (au drone) d’analyser la situation à partir d’un ensemble de paramètres, lequel ordinateur prendra ensuite la décision de tuer ou de de laisser ces hommes en vie.

On est en train de concevoir et programmer des ordinateurs selon le concept "thumbs down" [pouce en bas]. Avec une telle machine, les quatre hommes barbus (sic) sur le terrain seront alors tués sans qu’un être humain n’ait pris la décision de le faire « directement »

http://gfx.nrk.no/ChdLHwwMBPJElYBkszprlgCw5gX-30Qmrm3CgJ8ohpyg.jpg

Le drone britannique « Taranis » sera probablement en mesure de fonctionner sans contrôle humain direct. Photo : BAE Systems / AP

Une campagne contre les « robots tueurs » a débuté à Londres en avril 2013, soutenue par 45 organisations non-gouvernementales dans 20 pays.

Il existe en fait des versions plus avancées de drones armés – non utilisés, encore en développement – qui sont assimilés aux « robots tueurs ». Tobias Mahler souligne que ce n’est pas nécessairement des armes au sens traditionnel du terme. Pour illustrer son propos, il donne une image :

Imaginez la porte d’entrée du bâtiment de la NSA aux Etats-Unis. Elle peut-être programmée pour reconnaître les gens à partir de l’analyse de leurs yeux. Cette porte automatique peut aussi être programmée pour claquer dans la gueule de celui qu’elle ne reconnaît pas et éventuellement le tuer ! C’est la programmation qui fait tout, mais le programmeur peut-il tout prévoir ?

Les États-Unis et Israël sont les pays les plus en pointe dans le développement des « robots tueurs » mais la Russie et la Chine ont probablement des programmes avancés. Il y a de bonnes raisons de croire que l’heure de l’utilisation en réel des « robots tueurs » est beaucoup plus proche qu’on ne le croit.

Tobias Malher souligne que les militaires développent les « robots tueurs » pour répondre à l’argument suivant :

Développer des armes autonomes pour éviter au maximum de mettre nos troupes en danger [des guerres sans soldats].

Et ces mêmes militaires [quand même] de se demander s’il est éthique de développer des armes qui décident toutes seules de tuer ou pas (sic) … !

http://gfx.nrk.no/IvTFT8pQa_kCkxRtyZaduwO9TkOsx2Ox7Fi9oc3li3-Q.jpg
L’avion sans pilote X -47B fabriqué par Northrup Grumman sur la base Edwards en Californie sera en mesure d’attaquer des armes sans contrôle humain. Photo : Alan Radecki , Northrup Grumman, marine / AP.

Le journaliste de la NRK poursuit avec cet encadré :

« Les robots doivent faire des choix éthiques »

– Si les « robots tueurs » autonomes doivent être utilisés, ils doivent être programmés pour faire des choix éthiques.
– C’est aussi des questions auxquelles sont confrontées les développeurs de voitures civiles « auto-conduites »

– Par exemple, une voiture autonome (auto-conduite) circule avec quatre personnes à bord. Que fera-t-elle si un enfant traverse soudainement la chaussée juste devant elle alors qu’un camion arrive en sens inverse ?

– Le véhicule devra choisir entre deux options :

1. Tourner vivement pour éviter l’enfant et donc entrer en collision avec le camion venant en sens inverse, avec de possible graves conséquences pour les quatre personnes se trouvant dans la voiture.

2. Continuer tout droit et percuter l’enfant, avec comme résultat probable la mort de celui-ci.

En Norvège, la question des « robots tueurs » est totalement absente du débat politique (les élections parlementaires ont lieu l9 septembre 2013) alors que ce débat a bien eu lieu dans plusieurs autres pays européens. Ça n’a même pas été un enjeu de la campagne alors que la Norvège a un programme militaire de production d’armement (petit, mais qui existe quand même).

En Allemagne, où l’on vote aussi mi-septembre, Die Linke a fait de la lutte contre les « robots tueurs » un de leurs principaux enjeux de la campagne.

–----

Article source sur le site de la NRK

– Drapsroboter er bare ti til tjue år unna - Verden - NRK Nyheter
http://www.nrk.no/nyheter/verden/1.11220317

Han får støtte av Alexander Harang i Kampanjen for å stoppe drapsroboter (Campaign to Stop Killer Robots) CSKR.

– Vi er ti til tjue år fra å se at drapsrobotene blir tatt i bruk på slagmarken, sier Harang.

Både Mahler og Harang deltok denne uken på et seminar om drapsroboter på Fredsforskningsinstituttet (PRIO) i Oslo.

#drones #robots_tueurs #guerre #guerres_sans_soldats

cc @fil

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl