20 janeiro 2022

Críticas ao Indicador de Preferências do Doente quanto à autonomia

Jardas EJ, et al. J Med Ethics 2021;0:1-7

Críticas ao Indicador de Preferências do Doente quanto à autonomia

EJ Jardas, David Wasserman, David Wendler
Department of Bioethics, National Institutes of Health Clinical Center, Bethesda, Maryland, USA

Tradução espontânea do artigo

Resumo O indicador de preferências do doente (IPD) é um algoritmo computacional com que se propõe prever as preferências de tratamentos de doentes sem capacidade de decisão. A incorporação de um IPD no processo de tomada de decisão tem o potencial de melhorar o respeito pelo entendimento de outrem, fazendo previsões mais precisas das preferências de tratamentos de doentes e que vão além da mera confiança nos seus procuradores. No entanto, os críticos argumentam que os métodos para tomar decisões de tratamentos de doentes incapacitados devem basear-se numa série de fatores mais do que simplesmente lhes aplicar os tratamentos que teriam escolhido para si próprios. Estes fatores incluem quanto o processo de tomada de decisão reconhece a livre escolha dos doentes e assenta comprovadamente no que o próprio doente teria em conta ao tomar decisões sobre tratamentos. Estes críticos concluem que a utilização de um IPD deve ser rejeitada por ser inconsistente com esses fatores, especialmente os que se relacionam com o respeito adequado pela autonomia do doente. No presente documento, analisamos e avaliamos estas críticas. Argumentamos que não mostram razões para rejeitar a utilização de um IPD, apoiando assim os esforços para desenvolver um IPD abrangente e para o avaliar na prática.

Ver tradução completa AQUI

17 janeiro 2022

O Impacto da Inteligência Artificial na Relação Médico-Doente

O Impacto da Inteligência Artificial na Relação Médico-Doente

Brent Mittelstadt

Tradução parcial do texto 
The impact of artificial intelligence  on the doctor-patient relationship
(ver a versão completa em inglês AQUI e em francês AQUI)

PONTOS PRINCIPAIS 

1. Em resposta a um pedido do Comité de Bioética (DH-BIO) [Comissão substituída pela Comissão Executiva para os Direitos Humanos nas áreas da Biomedicina e da Saúde (CDBIO=Steering Committee for Human rights in the fields of Biomedicine and Health)] para o elaborar com confiança, segurança e transparência, este relatório investiga os impactos conhecidos e potenciais dos sistemas de inteligência artificial (IA) na relação médico-doente. Este impacto é enquadrado pelos princípios dos direitos humanos referidos na Convenção Europeia sobre os Direitos Humanos e a Biomedicina (CEDHB) de 1997, também conhecida como ‘Convenção de Oviedo’ e as suas subsequentes emendas.

2. A utilização de IA nos cuidados clínicos continua a ser incipiente. A eficácia clínica foi estabelecida para relativamente poucos sistemas, quando comparada com a significativa investigação sobre aplicações de IA em cuidados de saúde. A investigação, desenvolvimento e testes-piloto muitas vezes não se traduzem em eficácia clínica comprovada, comercialização ou implantação generalizada. A generalização para a prática clínica do desempenho obtido nos ensaios permanece geralmente não comprovada.

3. Uma característica que define a medicina é a ‘relação de cura’ entre clínicos e doentes. Esta relação é aumentada com a introdução da IA. Contudo, o papel do doente, os fatores que levam as pessoas a procurar assistência médica e a vulnerabilidade do doente não são alterados pela introdução da IA como mediador ou prestador de cuidados médicos. Pelo contrário, o que muda são os meios de prestação de cuidados, como podem ser prestados e por quem. A mudança de competências e responsabilidades de cuidados para os sistemas de IA pode ser perturbadora de muitos modos.

4. O potencial impacto nos direitos humanos da IA na relação médico-doente pode ser categorizado de acordo com seis temas: (1) Desigualdade no acesso a cuidados de saúde de alta qualidade; (2) Transparência para profissionais de saúde e doentes; (3) Risco de distorção social nos sistemas de IA; (4) Diluição da narrativa do doente sobre o bem-estar; (5) Risco de viés de automatização, de desqualificação e de responsabilidade deslocada; (6) Impacto sobre o direito à privacidade.

5. No que diz respeito a (1), como tecnologia emergente, a implantação de sistemas de IA não será imediata ou universal em todos os Estados-membros ou sistemas de saúde. A implantação nas instituições e nas regiões será inevitavelmente inconsistente em termos de escala, velocidade e estabelecimento de prioridades.

6. Os impactos da IA nos cuidados clínicos e na relação médico-doente permanecem incertos e seguramente irão variar em função da aplicação e de cada caso. Os sistemas de IA podem revelar-se mais eficientes do que os cuidados humanos, mas também proporcionam cuidados de menor qualidade por haver menos interações presenciais.

7. A expansão inconsistente de sistemas de IA com impactos incertos sobre o acesso e a qualidade dos cuidados de saúde representa um risco de criação de novas desigualdades na saúde nos Estados-membros.

8. O artigo 4.º da Convenção de Oviedo aborda os cuidados prestados por profissionais de saúde vinculados a normas profissionais. Ainda não está claro se os criadores, fabricantes e prestadores de serviços de sistemas de IA estarão vinculados aos mesmos padrões profissionais.

9. Deve ser dada especial atenção ao papel pelos profissionais de saúde vinculados por normas profissionais ao incorporar sistemas de IA que interagem diretamente com os doentes.

10. No que diz respeito a (2), a transparência e o consentimento informado são valores-chave na relação médico-doente mediada pela IA. A complexidade da IA levanta uma pergunta: como devem os sistemas de IA explicar-se, ou ser explicados, aos médicos e aos doentes? Esta pergunta tem muitos significados possíveis: (i) Como é que um sistema ou modelo de IA funciona? Como é que um sistema de IA produziu um resultado específico? (ii) Como foi concebido e testado um sistema de IA? Como é governado? (iii) Que informação é necessária para investigar o comportamento dos sistemas de IA? Podem ser necessárias as respostas a cada uma destas perguntas para se obter o consentimento informado nos cuidados mediados por IA.

11. Nos casos em que os sistemas de IA proporcionam alguma forma de competência clínica, por exemplo, recomendando um diagnóstico específico ou interpretando tomografias, este requisito para explicar a tomada de decisões seria aparentemente transferido do médico para sistema de IA ou, pelo menos, para o fabricante do sistema de IA. A dificuldade de explicar como os sistemas de IA transformam as entradas em saídas representa um desafio fundamental para o consentimento informado. Para lá da capacidade de o doente em compreender a funcionalidade dos sistemas de IA, em muitos casos, os doentes simplesmente não têm níveis suficientes de consciencialização que tornem possível o consentimento livre e esclarecido. Os sistemas de IA utilizam volumes sem precedentes de dados para tomar as suas decisões e interpretam estes dados utilizando técnicas estatísticas complexas, ambas aumentando a dificuldade e o esforço necessário para se perceber o âmbito total do processamento de dados e da análise clínica que dá forma ao diagnóstico e tratamento.

12. Os sistemas de IA que interagem diretamente com os doentes devem autoidentificar-se como um sistema artificial. Uma questão mais difícil é saber se a utilização de sistemas de IA em ambientes de cuidados de saúde deve ser sempre revelada aos doentes pelos clínicos e pelas instituições de saúde.

13. No que diz respeito a (3), está amplamente reconhecido que os sistemas de IA sofrem de distorções nas suas entradas, processamento e saídas. As decisões enviesadas e injustas ocorrem frequentemente não por razões técnicas ou regulamentares, mas antes por refletirem os preconceitos e desigualdades sociais subjacentes. Por exemplo, as amostras de ensaios clínicos e de estudos de saúde têm sido historicamente distorcidas por excesso de sujeitos masculinos brancos, o que significa que os resultados são menos suscetíveis de se aplicarem a mulheres e pessoas de cor.

14. Os vieses sociais nos sistemas de IA podem levar a uma distribuição desigual dos resultados entre populações de doentes e grupos demográficos protegidos. As sociedades ocidentais têm sido marcadas há muito tempo por uma desigualdade social significativa. Estas tendências históricas e contemporâneas influenciam a formação dos futuros sistemas. Sem intervenção, estes padrões no acesso a oportunidades e recursos de cuidados de saúde serão aprendidos e reforçados pelos sistemas de IA.

15. A deteção de vieses nos sistemas de IA não é simples. Regras tendenciosas de tomada de decisão podem ser escondidas em modelos de ‘caixa negra’. Anonimizar apenas os dados de saúde pode não ser uma solução adequada para mitigar os vieses devido à influência da desigualdade histórica e à existência de fortes substitutos de atributos protegidos (por exemplo, código postal como substituto da etnicidade). Os vários desafios oriundos de vieses sociais, discriminação e desigualdade sugerem que os profissionais e as instituições de saúde enfrentam uma tarefa difícil para garantirem que a utilização dos sistemas de IA não promove as desigualdades existentes e não cria novas formas de discriminação.

16. No que diz respeito a (4), o desenvolvimento da confiança numa relação médico-doente pode ficar inibido pela mediação tecnológica. Como mediadores colocados entre o médico e o doente, os sistemas de IA podem inibir no doente a compreensão tácita da sua saúde e bem-estar e encorajar tanto o clínico como o doente a ver a saúde apenas em quantidades mensuráveis ou em termos interpretáveis por máquinas.

17. No que diz respeito a (5), para garantir a segurança dos doentes e substituir a proteção dada pela competência clínica humana, umas normas robustas de teste e validação deveriam ser um requisito essencial prévio à implantação de sistemas de IA em contextos de cuidados clínicos. Ainda não existem provas de eficácia clínica para muitas aplicações de IA nos cuidados de saúde, o que provou, justificadamente, ser um obstáculo à implantação generalizada.

18. No que diz respeito a (6), a IA põe vários desafios únicos ao direito humano de privacidade e aos respetivos regulamentos de proteção de dados. Estes direitos procuram proporcionar aos indivíduos uma maior transparência e controlo sobre as formas automatizadas de tratamento de dados. Sem dúvida que proporcionarão uma proteção valiosa aos doentes em vários casos de utilização de IA médica.

19. A Convenção de Oviedo estabelece uma aplicação específica do direito à privacidade (artigo 8.º), reconhecendo a natureza particularmente sensível das informações pessoais de saúde e estabelecendo o dever de confidencialidade para os profissionais de saúde.

20. É necessário desenvolver normas éticas em torno da transparência, imparcialidade, confidencialidade e eficácia clínica para proteger os interesses dos doentes quanto ao consentimento informado, igualdade, privacidade e segurança. Tais normas poderiam servir de base para a instalação de IA nos cuidados de saúde que facilitem em vez de dificultarem a relação de confiança entre médicos e doentes.

21. Sempre que se possa observar que a IA tem um claro impacto nos direitos e proteções estabelecidos na Convenção de Oviedo, é apropriado que o Conselho da Europa produza recomendações e requisitos vinculativos para os signatários relativamente à forma como a IA é implantada e governada. As recomendações devem centrar-se no mais elevado padrão positivo de cuidados no que diz respeito à relação médico-doente, para garantir que não seja indevidamente perturbada pela introdução da IA em ambientes de cuidados.

22. O Conselho da Europa poderia estabelecer normas sobre quais e como devem ser comunicadas ao doente as informações sobre recomendações de um sistema de IA relativas ao seu diagnóstico e tratamento. Estas normas deveriam igualmente abordar o papel do médico na explicação das recomendações de IA aos doentes e como os sistemas de IA podem ser concebidos para apoiar o médico neste papel.

23. A capacidade da IA de substituir ou aumentar os conhecimentos clínicos humanos utilizando análises altamente complexas e volumes e variedades de dados sem precedentes sugere que o seu impacto na relação médico-doente também pode ser sem precedentes.

24. O grau em que os sistemas de IA inibem a ‘boa’ prática médica depende do modelo de serviço. Se a IA for utilizada apenas para complementar a competência dos profissionais de saúde vinculados pelas obrigações de confiança próprias da relação médico-doente, o impacto da IA na fiabilidade e na qualidade humana dos encontros clínicos pode revelar-se reduzido. Simultaneamente, se a IA for utilizada para aumentar ou substituir fortemente a competência clínica humana, o seu impacto na relação de cuidados é mais difícil de prever. É inteiramente possível que novas normas amplamente aceites para ‘bons’ cuidados surjam através de uma maior confiança nos sistemas de IA, com os clínicos a passarem mais tempo frente a frente com os doentes e a confiarem fortemente em recomendações automatizadas. O impacto da IA na relação médico-doente permanece, no entanto, altamente incerto. É pouco provável que nos próximos cinco anos se assista a uma reconfiguração radical dos cuidados de saúde no sentido de os conhecimentos humanos serem completamente substituídos por inteligência artificial.

25. Uma reconfiguração radical da relação médico-doente do tipo imaginado por alguns comentadores, em que os sistemas artificiais diagnosticam e tratam os doentes diretamente com o mínimo de interferência de clínicos humanos, continua a parecer muito distante.

26. Assim, o modelo ideal de cuidados clínicos e de implantação da IA nos cuidados de saúde é aquele que utiliza os melhores aspetos da competência clínica humana e do diagnóstico da IA.

27. A relação médico-doente é a pedra angular da ‘boa’ prática médica e, no entanto, parece estar a ser transformada numa tríplice relação médico-doente-inteligência artificial. O desafio enfrentado pelos prestadores de IA, reguladores e decisores políticos é estabelecer normas e requisitos robustos para este novo tipo de ‘relação de cura’, assegurando que os interesses dos doentes e a integridade moral da medicina como profissão não sejam fundamentalmente prejudicados pela introdução da IA.

09 janeiro 2022

Vacinação obrigatória para a COVID19 e direitos humanos

 

Vacinação obrigatória para a COVID19 e direitos humanos
Jeff King, Octávio Luiz Motta Ferraz, Andrew Jones

Tradução espontânea do artigo Mandatory COVID-19 vaccination and human Rights

Em 9 de dezembro de 2021, o governo austríaco apresentou ao parlamento um projeto de lei que impunha a vacinação obrigatória para a COVID-19 a todos os seus residentes.1 Esta medida seguiu-se ao anúncio do primeiro-ministro grego de impor multas aos residentes com 60 anos de idade ou mais que não tomassem a vacinação COVID-19.2 Muitas outras nações estão a contemplar legislação semelhante ou adotaram ordens em determinados locais de trabalho, tais como Austrália, Brasil, Canadá, França, Indonésia, Itália e Reino Unido.3 Algumas pessoas resistem à obrigação de vacinação por motivos pragmáticos, por exemplo, porque poderiam diminuir os níveis ou o moral do pessoal de saúde.4,5 No entanto, a vacinação obrigatória também é frequentemente contrariada por princípio. O Secretário de Estado da Saúde e Assistência Social do Reino Unido, Sajid Javid, por exemplo, disse à BBC em 10 de dezembro de 2021 que considerava a vacinação obrigatória “antiética”.6 Muitos outros presumem que a vacinação obrigatória viola os direitos humanos.7 Acreditamos que este ponto de vista está errado, pelo menos como uma questão de direito constitucional internacional e comparativo.

A nossa opinião baseia-se na análise e no amplo debate realizado no âmbito do projeto Lex-Atlas: Covid-19 (LAC19), uma rede mundial de juristas que está a produzir e organizar, em acesso livre, o Oxford Compendium of National Legal Responses to Covid-19.8 50 juristas da rede adotaram princípios relativos à legalidade e constitucionalidade da vacinação obrigatória em outubro de 2021 (os Princípios LAC19).9 Concluímos que a lei da vacinação obrigatória e os direitos humanos são, em princípio, compatíveis e que existe argumentação convincente baseada nos direitos para um dever estatal de considerar a adoção da vacinação obrigatória, definida como qualquer lei que torne a vacinação obrigatória ou qualquer exigência de vacinação pública ou privada para aceder a um local ou serviço que não possa ser evitado sem sobrecarga indevida.9 Esta definição reconhece as ordens adotadas por organismos públicos e privados e, crucialmente, que as exigências evitáveis através de testes a preços acessíveis não são obrigatórias.

Mesmo no entendimento mais libertário da liberdade, filósofos e juristas concordam em que as restrições à liberdade podem ser justificadas se impedirem danos a outros. A Convenção Europeia dos Direitos Humanos reconhece isto ao considerar o direito à integridade física nos termos do artigo 8.º como um “direito qualificado” que pode ser limitado “para a proteção da saúde”.10 Se um esquema de vacinação obrigatório visa reduzir parcial ou totalmente os danos de terceiros, não é paternalista.

Mas a liberdade não é o único valor relevante na lei dos direitos humanos. Os direitos económicos e sociais à saúde, ao trabalho e à educação são reconhecidos no direito internacional desde 1948, mais amplamente na Declaração Internacional das Nações Unidas sobre os Direitos Económicos, Sociais e Culturais (ICESCR),11 um tratado internacional ratificado por 171 Estados, incluindo todos os da Europa e o Reino Unido. No seu Plano de Ação Global de Vacinas de 2013, a OMS reforçou a opinião de que “a imunização é e deve ser reconhecida como um componente central do direito humano à saúde e uma responsabilidade individual, comunitária e governamental”.12 Uma opinião semelhante foi reconhecida no artigo 12(c) do ICESCR, que enumera “a prevenção, tratamento e controlo de doenças epidémicas...” entre as obrigações decorrentes do direito à saúde.11

A vacinação obrigatória não é uma resposta automática à COVID-19. Em mais de 100 países já existe alguma versão da vacinação obrigatória de crianças em idade escolar para uma série de doenças, incluindo sarampo, papeira, rubéola, tétano e poliomielite.13 Em abril de 2021, o Chile, Alemanha, Israel, México, Noruega, Sérvia, Espanha e vários estados dos EUA tinham leis anteriores à pandemia que davam autoridade legal para impor ordens de vacinação nomeadamente contra a COVID-19.14

Tanto quanto sabemos, nenhum grande tribunal constitucional ou internacional considerou que uma política de vacinação obrigatória transgredia qualquer direito geral à liberdade. Muitas dessas políticas têm sido confirmadas quando contestadas. Em abril de 2021, em relação a uma lei pré-COVID-19, o Plenário do Tribunal Europeu dos Direitos do Homem considerou que uma lei checa que exigia a vacinação obrigatória de crianças contra nove doenças não violava o direito à integridade física do artigo 8.º, porque o esquema era um meio proporcional de proteção da saúde pública.15 Em várias outras jurisdições, os tribunais chegaram às mesmas conclusões ou a conclusões semelhantes, incluindo a decisão do Supremo Tribunal dos EUA em Jacobson vs. Massachusetts (1904),16 os recentes acórdãos pré-COVID-19 que confirmaram esquemas de vacinação obrigatória em França,17 Itália,18,19 e Chile,20,21 e as decisões específicas da COVID-19 sobre programas em Nova Iorque, EUA22 e Brasil.23 Na maioria destas decisões, os tribunais consideraram que os esquemas favoreceram o direito à saúde.

No entanto, a compatibilidade por princípio da vacinação obrigatória com os direitos humanos não significa que os governos, os empregadores ou as escolas devam ser arrogantes quanto à sua adoção. Certamente interferem com os direitos fundamentais, pelo que é necessário um plano cuidadoso para assegurar que as ordens de vacinação não violam direitos. Os Princípios LAC19 visam, assim, dar orientações sobre a forma de promulgar esquemas que respeitem os direitos.9

Os Princípios LAC19 recomendam que os esquemas de vacinação obrigatória devem ser prescritos por lei que seja clara e, de preferência, adotada após consulta. Idealmente, a vacinação obrigatória deveria ser regulamentada por lei, em vez de regras executivas (ou seja, regulamentos). A elaboração de leis de vacinação obrigatória deve ser submetida a um período de consulta de, pelo menos, 4-6 semanas e envolver governos regionais, partidos da oposição, sindicatos, peritos, o público e outros. Estas consultas, e a resposta do governo, devem ser publicadas antes da aprovação de qualquer lei, para permitir debates e emendas. Consistentemente com os princípios constitucionais amplamente aceites que dizem respeito à não-delegação de funções legislativas fundamentais, as leis de vacinação obrigatória não devem deixar grandes dúvidas políticas para os governos, empresas privadas ou empregadores. Deverão ser abordadas no projeto de lei apresentado ao poder legislativo, permitindo debate e alterações.

Os esquemas de vacinação obrigatória devem também cumprir o princípio legal da proporcionalidade. Tal como detalhado nos Princípios LAC19 , o esquema deve ter um objetivo legítimo – por exemplo, a redução da transmissão do vírus ou a proteção dos serviços de saúde. Os meios escolhidos devem estar racionalmente ligados a esse objetivo. Na prática, a proporcionalidade será satisfeita se o esquema de vacinação obrigatório se basear claramente em bons conselhos de saúde pública. O esquema deve também ser necessário no sentido de que não há outros meios menos prejudiciais para alcançar esse objetivo. Aqui deverá haver muito debate sobre a eficácia da vacina e as prováveis respostas sociais à vacinação obrigatória. Os princípios de direito público aconselham uma restrição judicial sobre uma questão tão complexa como a necessidade epidemiológica de uma ordem de vacina a nível nacional. Finalmente, as multas e punições por não-cumprimento devem ser eficazes mas não demasiado onerosas. Quanto mais severa for a pena, mais vulnerável é a política a uma alegação legal de desproporcionalidade.

Os Princípios LAC19 também apelam a um envolvimento construtivo com a hesitação razoável em relação à vacina. O filósofo político John Rawls distinguiu o que é racional do que é razoável.24 A hesitação vacinal pode ser razoável (compreensível e digna de respeito) para alguns grupos que desconfiam das vacinas obrigatórias – por exemplo, comunidades que foram sujeitas a perseguição, discriminação, marginalização ou negligência do Estado.9,25 Em tais casos, o Estado e outros agentes devem adotar intervenções construtivas de envolvimento com estes grupos, tais como educação liderada pela comunidade ou moratórias do início. Avisos de aplicação súbita por si só são insuficientes. Contudo, o envolvimento construtivo precede a oferta de isenções totais. As isenções médicas devem ser consideradas, mas as isenções para crenças religiosas ou liberdade de consciência não são geralmente exigidas pela lei dos direitos humanos.25

Embora os requisitos de vacinação obrigatória devam ser concebidos com grande cuidado, não há razão para pensar que são intrinsecamente incompatíveis com a lei dos direitos humanos.

Ver Referência no artigo original