Pasar al contenido principal
x

La pandemia terminó en Estados Unidos, afirma Joe Biden

presidente
Foto(s): Cortesía
Redacción

El presidente de Estados Unidos, Joe Biden aseguró que la pandemia de covid terminó en Estados Unidos.

“La pandemia terminó”, declaró en una entrevista en el programa 60 Minutes, de la cadena CBS.

“Todavía tenemos un problema con el covid. Todavía estamos trabajando mucho en ello, pero la pandemia terminó. Si se fijan, nadie lleva máscaras. Todo el mundo parece estar en buena forma. Y por eso creo que está cambiando”, apuntó.

Actualmente, la Casa Blanca designa a covid-19 como una emergencia de salud pública.

Sin embargo, la declaración de Biden va en la misma línea que la de otros líderes mundiales.

“Aún no estamos allí, pero el fin de la pandemia está a la vista”, declaró la semana pasada el director general de la Organización Mundial de la Salud, Tedros Adhanom Ghebreyesus.

Según la Universidad Johns Hopkins, el país registra 95.6 millones de casos acumulados desde el 21 de enero de 2020, cuando el país norteamericano confirmó su primer contagio de coronavirus.

Asimismo, más de un millón de personas han muerto por la enfermedad.

Además del tema de la pandemia, el demócrata afirmó que no está seguro de que buscará la reelección en 2024.También insistió en que mantendrá su apoyo a Ucrania en la guerra con Rusia y a Taiwán.

“El impacto en la mente del pueblo estadunidense como consecuencia de la pandemia es profundo. Piensa en cómo eso lo ha cambiado todo”concluyó Biden.

Noticias ¡Cerca de ti!

Conoce los servicios publicitarios que impulsarán tu marca a otro nivel.