Andrew Ng pone dos puntos imporantes en el siguiente artículo que publica en su newsletter The Batch:
https://www.deeplearning.ai/the-batch/issue-288/
- Que tenemos que dejar de hablar de «AI safety» ya que presupone que la IA, en si misma, como infraestructura tecnológica, puede ser insegura. Cuando es más razonable pensar sobre como las aplicaciones, esto es, los usos de la IA puede ser inseguros.
- Que tenemos pasar a hablar de «responsible AI» en vez de «AI safety».
Estoy completamente de acuerdo con estas reflexiones de Ng. Hay que evitar los usos maliciosos de la IA, pero eso no significa que sea insegura. La idea del «riesgo existencial», popular durante la cumbre de Bletchley Park, fue una sobrerreacción desproporcionada cuya relevancia mediática no justifica su alarmismo.
Ng acierta al señalar que el lenguaje moldea el pensamiento, y en este punto voy más allá: tampoco deberíamos hablar de «IA responsable», ya que la responsabilidad recae en las personas, no en la tecnología. Atribuirle cualidades que corresponden a las personas de nuevo distorsiona el debate.
Mi propuesta es centrarnos en una «IA fiable», un término más adecuado para un producto derivado de un proceso ingenieril.
Lo explico más en detalle en:
https://pablohaya.com/2024/07/01/cambiemos-la-ia-responsable-por-la-ia-fiable/