Weltpolitik bezeichnet im Besonderen die deutsche Außen- und Kolonialpolitik im Zeitalter des Imperialismus. In einem allgemeinen Sinne können darunter auch alle politischen Vorgänge in der internationalen Politik insgesamt und der Versuch, auf all diese Vorgänge entscheidenden Einfluss zu nehmen, verstanden werden.